diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.it.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.it.png
new file mode 100644
index 00000000..8aa6b1a6
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.it.png differ
diff --git a/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.tr.png b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.tr.png
new file mode 100644
index 00000000..281a1f10
Binary files /dev/null and b/translated_images/00-Roadmap.4905d6567dff47532b9bfb8e0b8980fc6b0b1292eebb24181c1a9753b33bc0f5.tr.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.it.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.it.png
new file mode 100644
index 00000000..761daa2a
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.it.png differ
diff --git a/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.tr.png b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.tr.png
new file mode 100644
index 00000000..6546fcd0
Binary files /dev/null and b/translated_images/00-Title.8af36cd35da1ac555b678627fbdc6e320c75f0100876ea41d30ea205d3b08d22.tr.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.it.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.it.png
new file mode 100644
index 00000000..83481e03
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.it.png differ
diff --git a/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.tr.png b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.tr.png
new file mode 100644
index 00000000..d33c0f12
Binary files /dev/null and b/translated_images/01-Definitions.1b14ddc9525dc0d9416a2f500f30e8652d21622f4e184100d405bd874ecbc17d.tr.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.it.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.it.png
new file mode 100644
index 00000000..8028fdac
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.it.png differ
diff --git a/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.tr.png b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.tr.png
new file mode 100644
index 00000000..9d51be6a
Binary files /dev/null and b/translated_images/02-Ethics.728d166895302ab09c726c2a8385abbf7c3e36752f0ee933bba7ea8f78f5cdca.tr.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.it.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.it.png
new file mode 100644
index 00000000..c9e35aa3
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.it.png differ
diff --git a/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.tr.png b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.tr.png
new file mode 100644
index 00000000..f7a140b6
Binary files /dev/null and b/translated_images/03-DefiningData.f800817186949e078a81e7d5fdf9bb83834e561316bf790d4645c970ed4ff9ae.tr.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.it.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.it.png
new file mode 100644
index 00000000..f006d6b7
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.it.png differ
diff --git a/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.tr.png b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.tr.png
new file mode 100644
index 00000000..dc5314cc
Binary files /dev/null and b/translated_images/04-Statistics-Probability.cfc569d84a9f186748b69af7fdac3fa560329ccfc0e28994bfa65450ed78bdde.tr.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.it.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.it.png
new file mode 100644
index 00000000..7ce33d8e
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.it.png differ
diff --git a/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.tr.png b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.tr.png
new file mode 100644
index 00000000..fca855d8
Binary files /dev/null and b/translated_images/05-RelationalData.af50f5a3e50f7456f1d895326b489d3b3f608a09abc28933d5dc6ba6ac191565.tr.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.it.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.it.png
new file mode 100644
index 00000000..64d6c5d9
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.it.png differ
diff --git a/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.tr.png b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.tr.png
new file mode 100644
index 00000000..8f069e57
Binary files /dev/null and b/translated_images/06-NoSQL.42a91ea0cd5769fe43e3c21554eb6d308b1fdf1435a6ae7c47b1a9dedab2da84.tr.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.it.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.it.png
new file mode 100644
index 00000000..075c52b2
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.it.png differ
diff --git a/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.tr.png b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.tr.png
new file mode 100644
index 00000000..1dce830f
Binary files /dev/null and b/translated_images/07-WorkWithPython.8bf4a5013718bef90cb3887355e158974494de38d2ad420b6cdce2fcd982cd89.tr.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.it.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.it.png
new file mode 100644
index 00000000..89e525e7
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.it.png differ
diff --git a/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.tr.png b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.tr.png
new file mode 100644
index 00000000..d638c1f5
Binary files /dev/null and b/translated_images/08-DataPreparation.e3b185c37958e96435267555edc6e54f2eb0f2d18745cfd550d3f9ba34877072.tr.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.it.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.it.png
new file mode 100644
index 00000000..3d63d862
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.it.png differ
diff --git a/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.tr.png b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.tr.png
new file mode 100644
index 00000000..75cf703a
Binary files /dev/null and b/translated_images/09-Visualizing-Quantities.5c846edd805a5238789865f960b1e2615b6889c715852f02a20a722484d97fbb.tr.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.it.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.it.png
new file mode 100644
index 00000000..4ae2b050
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.it.png differ
diff --git a/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.tr.png b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.tr.png
new file mode 100644
index 00000000..bc43d2ba
Binary files /dev/null and b/translated_images/10-Visualizing-Distributions.8097fd8abd7221a1da63a156aaca497d844697e6a0ef0bbf8795e0f6a0bf7309.tr.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.it.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.it.png
new file mode 100644
index 00000000..0eb3fa59
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.it.png differ
diff --git a/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.tr.png b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.tr.png
new file mode 100644
index 00000000..482ecb99
Binary files /dev/null and b/translated_images/11-Visualizing-Proportions.3e82f24af94d206e51faf9aff1b454a52c8e69887296ac549d6286450cc64d1f.tr.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.it.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.it.png
new file mode 100644
index 00000000..0d114796
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.it.png differ
diff --git a/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.tr.png b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.tr.png
new file mode 100644
index 00000000..21a1114e
Binary files /dev/null and b/translated_images/12-Visualizing-Relationships.4466f9bd260f03dd29dc04933456ade8466d7ed2a37a98b78ed47f061488d57a.tr.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.it.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.it.png
new file mode 100644
index 00000000..f3459424
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.it.png differ
diff --git a/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.tr.png b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.tr.png
new file mode 100644
index 00000000..4c35d568
Binary files /dev/null and b/translated_images/13-MeaningfulViz.4db6f1997e519908c85e4b9b3b54609b2e9e90a27be9423a9b956ab9a7329c80.tr.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.it.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.it.png
new file mode 100644
index 00000000..a0b1d891
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.it.png differ
diff --git a/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.tr.png b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.tr.png
new file mode 100644
index 00000000..df1b796f
Binary files /dev/null and b/translated_images/14-DataScience-Lifecycle.2c9f277e4d69fbaadc814c2b295be5e2df8f006b80543a974d109324f0897b7b.tr.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.it.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.it.png
new file mode 100644
index 00000000..134cc6e5
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.it.png differ
diff --git a/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.tr.png b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.tr.png
new file mode 100644
index 00000000..19af541d
Binary files /dev/null and b/translated_images/15-Analyzing.b501f3dbdc958f6fab0a507e307381c29e76707c3c41e174977e380a8b4063a9.tr.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.it.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.it.png
new file mode 100644
index 00000000..64344b64
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.it.png differ
diff --git a/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.tr.png b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.tr.png
new file mode 100644
index 00000000..2f632562
Binary files /dev/null and b/translated_images/16-Communicating.f1d29cd7984442a4804d0df8b7e8438b1abc7c1fcf5b3471e89eaf2e9ba087d9.tr.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.it.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.it.png
new file mode 100644
index 00000000..e1776a05
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.it.png differ
diff --git a/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.tr.png b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.tr.png
new file mode 100644
index 00000000..0a08a372
Binary files /dev/null and b/translated_images/17-DataScience-Cloud.0df76ac874805c141082935ca07e8eca7d3790b83df25d641a807495e4f19de2.tr.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.it.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.it.png
new file mode 100644
index 00000000..cc8ce2c7
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.it.png differ
diff --git a/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.tr.png b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.tr.png
new file mode 100644
index 00000000..58c5cc31
Binary files /dev/null and b/translated_images/18-DataScience-Cloud.3a7292e8182b74ebfe5b246c0193c42592164aef625fe66e44194c19b2971f1a.tr.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.it.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.it.png
new file mode 100644
index 00000000..86a01edc
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.it.png differ
diff --git a/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.tr.png b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.tr.png
new file mode 100644
index 00000000..aecdc50f
Binary files /dev/null and b/translated_images/19-DataScience-Cloud.177b38fb86301fc6f06dea5b25a58f8abe1aa762d3a815d811c83ee22d8a8d6a.tr.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.it.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.it.png
new file mode 100644
index 00000000..2d5c7bf6
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.it.png differ
diff --git a/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.tr.png b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.tr.png
new file mode 100644
index 00000000..82897ee9
Binary files /dev/null and b/translated_images/20-DataScience-Humanities.1d1a155f4d12a6679eb4f2be1074a456957f00affe8137c9cb22dedd6e7337e7.tr.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.it.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.it.png
new file mode 100644
index 00000000..0163d47a
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.it.png differ
diff --git a/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.tr.png b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.tr.png
new file mode 100644
index 00000000..f0e91680
Binary files /dev/null and b/translated_images/20-DataScience-RealWorld.976976229ee113426d617ef7a1a8cb8f80f7b7bca6860a167b1ca155b891415b.tr.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.it.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.it.png
new file mode 100644
index 00000000..fdbe7a96
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.it.png differ
diff --git a/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.tr.png b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.tr.png
new file mode 100644
index 00000000..3c7134a7
Binary files /dev/null and b/translated_images/20-DataScience-Research.da434814c51b4ef8cd15a8efa161d066eff282b59286a2ab33b834434df96db9.tr.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.it.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.it.png
new file mode 100644
index 00000000..ca6ef6e9
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.it.png differ
diff --git a/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.tr.png b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.tr.png
new file mode 100644
index 00000000..443ee73d
Binary files /dev/null and b/translated_images/20-DataScience-Sustainability.d4097bc684431da6b8f4b5f60896b6db7ca915f2366774416b2cd9939609a0c4.tr.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.it.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.it.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.it.png differ
diff --git a/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.tr.png b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.tr.png
new file mode 100644
index 00000000..9876f25c
Binary files /dev/null and b/translated_images/2D-wb.ae22fdd33936507a41e3af22e11e4903b04a9be973b23a4e05214efaccfd66c8.tr.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.it.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.it.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.it.png differ
diff --git a/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.tr.png b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.tr.png
new file mode 100644
index 00000000..3a85f737
Binary files /dev/null and b/translated_images/2D.b3342157139dd804f8fb5adc58721f77e59273fc980175b4ef735ec18686713c.tr.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.it.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.it.png
new file mode 100644
index 00000000..1bf1dd47
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.it.png differ
diff --git a/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.tr.png b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.tr.png
new file mode 100644
index 00000000..7b4a0883
Binary files /dev/null and b/translated_images/2d-plot.c504786f439bd7ebceebf2465c70ca3b124103e06c7ff7214bf24e26f7aec21e.tr.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.it.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.it.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.it.png differ
diff --git a/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.tr.png b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.tr.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.0cec12bcc60f0ce7284c63baed1411a843e24716f7d7425de878715ebad54a15.tr.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.it.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.it.png
new file mode 100644
index 00000000..f3c88464
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.it.png differ
diff --git a/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.tr.png b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.tr.png
new file mode 100644
index 00000000..d4d3c761
Binary files /dev/null and b/translated_images/3d.db1734c151eee87d924989306a00e23f8cddac6a0aab122852ece220e9448def.tr.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.it.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.it.png
new file mode 100644
index 00000000..c28a88c9
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.it.png differ
diff --git a/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.tr.png b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.tr.png
new file mode 100644
index 00000000..58c64b88
Binary files /dev/null and b/translated_images/CRISP-DM.8bad2b4c66e62aa75278009e38e3e99902c73b0a6f63fd605a67c687a536698c.tr.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.it.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.it.png
new file mode 100644
index 00000000..48e75dce
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.it.png differ
diff --git a/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.tr.png b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.tr.png
new file mode 100644
index 00000000..034c3152
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot-improved.04b73b4d5a59552a6bc7590678899718e1f065abe9eada9ebb4148939b622fd4.tr.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.it.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.it.png
new file mode 100644
index 00000000..3552e186
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.it.png differ
diff --git a/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.tr.png b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.tr.png
new file mode 100644
index 00000000..7b4223f3
Binary files /dev/null and b/translated_images/MaxWingspan-lineplot.b12169f99d26fdd263f291008dfd73c18a4ba8f3d32b1fda3d74af51a0a28616.tr.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.it.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.it.png
new file mode 100644
index 00000000..9396166c
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.it.png differ
diff --git a/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.tr.png b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.tr.png
new file mode 100644
index 00000000..32c102c6
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot-improved.7d0af81658c65f3e75b8fedeb2335399e31108257e48db15d875ece608272051.tr.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.it.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.it.png
new file mode 100644
index 00000000..b3688ac8
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.it.png differ
diff --git a/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.tr.png b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.tr.png
new file mode 100644
index 00000000..d87f3e24
Binary files /dev/null and b/translated_images/MaxWingspan-scatterplot.60dc9e0e19d32700283558f253841fdab5104abb62bc96f7d97f9c0ee857fa8b.tr.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.it.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.it.png
new file mode 100644
index 00000000..c4ceaba5
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.it.png differ
diff --git a/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.tr.png b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.tr.png
new file mode 100644
index 00000000..10e0b775
Binary files /dev/null and b/translated_images/aml-1.67281a85d3a1e2f34eb367b2d0f74e1039d13396e510f363cd8766632106d1ec.tr.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.it.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.it.png
new file mode 100644
index 00000000..5a114245
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.it.png differ
diff --git a/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.tr.png b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.tr.png
new file mode 100644
index 00000000..170fc9b8
Binary files /dev/null and b/translated_images/aml-2.c9fb9cffb39ccbbe21ab9810ae937195d41a489744e15cff2b8477ed4dcae1ec.tr.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.it.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.it.png
new file mode 100644
index 00000000..63f822c1
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.it.png differ
diff --git a/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.tr.png b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.tr.png
new file mode 100644
index 00000000..0ee07c92
Binary files /dev/null and b/translated_images/aml-3.a7952e4295f38cc6cdb0c7ed6dc71ea756b7fb5697ec126bc1220f87c5fa9231.tr.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.it.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.it.png
new file mode 100644
index 00000000..7691c3e2
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.it.png differ
diff --git a/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.tr.png b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.tr.png
new file mode 100644
index 00000000..36e2675a
Binary files /dev/null and b/translated_images/aml-4.7a627e09cb6f16d0aa246059d9faee3d1725cc4258d0c8df15e801f73afc7e2c.tr.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.it.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.it.png
new file mode 100644
index 00000000..d537ebe7
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.it.png differ
diff --git a/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.tr.png b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.tr.png
new file mode 100644
index 00000000..06c0aad2
Binary files /dev/null and b/translated_images/bad-chart-1.596bc93425a8ac301a28b8361f59a970276e7b961658ce849886aa1fed427341.tr.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.it.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.it.png
new file mode 100644
index 00000000..d537ebe7
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.it.png differ
diff --git a/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.tr.png b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.tr.png
new file mode 100644
index 00000000..52ea4c5d
Binary files /dev/null and b/translated_images/bad-chart-1.93130f495b748bedfb3423d91b1e754d9026e17f94ad967aecdc9ca7203373bf.tr.png differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.it.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.it.jpg
new file mode 100644
index 00000000..ed8ca248
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.it.jpg differ
diff --git a/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.tr.jpg b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.tr.jpg
new file mode 100644
index 00000000..8332e127
Binary files /dev/null and b/translated_images/bad-chart-2.62edf4d2f30f4e519f5ef50c07ce686e27b0196a364febf9a4d98eecd21f9f60.tr.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.it.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.it.jpg
new file mode 100644
index 00000000..de7ff62b
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.it.jpg differ
diff --git a/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.tr.jpg b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.tr.jpg
new file mode 100644
index 00000000..8332e127
Binary files /dev/null and b/translated_images/bad-chart-2.c20e36dd4e6f617c0c325878dd421a563885bbf30a394884c147438827254e0e.tr.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.it.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.it.jpg
new file mode 100644
index 00000000..86d1de14
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.it.jpg differ
diff --git a/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.tr.jpg b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.tr.jpg
new file mode 100644
index 00000000..72278c72
Binary files /dev/null and b/translated_images/bad-chart-3.6865d0afac4108d737558d90a61547d23a8722896397ec792264ee51a1be4be5.tr.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.it.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.it.jpg
new file mode 100644
index 00000000..86d1de14
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.it.jpg differ
diff --git a/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.tr.jpg b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.tr.jpg
new file mode 100644
index 00000000..72278c72
Binary files /dev/null and b/translated_images/bad-chart-3.e201e2e915a230bc2cde289110604ec9abeb89be510bd82665bebc1228258972.tr.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.it.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.it.jpg
new file mode 100644
index 00000000..62c8140b
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.it.jpg differ
diff --git a/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.tr.jpg b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.tr.jpg
new file mode 100644
index 00000000..ac09dd61
Binary files /dev/null and b/translated_images/bad-chart-4.68cfdf4011b454471053ee1231172747e1fbec2403b4443567f1dc678134f4f2.tr.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.it.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.it.jpg
new file mode 100644
index 00000000..6848b804
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.it.jpg differ
diff --git a/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.tr.jpg b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.tr.jpg
new file mode 100644
index 00000000..887cd9c3
Binary files /dev/null and b/translated_images/bad-chart-4.8872b2b881ffa96c3e0db10eb6aed7793efae2cac382c53932794260f7bfff07.tr.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.it.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.it.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.it.jpg differ
diff --git a/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.tr.jpg b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.tr.jpg
new file mode 100644
index 00000000..032326e9
Binary files /dev/null and b/translated_images/bee.0aa1d91132b12e3a8994b9ca12816d05ce1642010d9b8be37f8d37365ba845cf.tr.jpg differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.it.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.it.png
new file mode 100644
index 00000000..76ad6cf9
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.it.png differ
diff --git a/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.tr.png b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.tr.png
new file mode 100644
index 00000000..abb4e440
Binary files /dev/null and b/translated_images/bodymass-per-order.9d2b065dd931b928c839d8cdbee63067ab1ae52218a1b90717f4bc744354f485.tr.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.it.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.it.png
new file mode 100644
index 00000000..ebd9bd56
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.it.png differ
diff --git a/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.tr.png b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.tr.png
new file mode 100644
index 00000000..1df2f8e1
Binary files /dev/null and b/translated_images/bodymass-smooth.d31ce526d82b0a1f19a073815dea28ecfbe58145ec5337e4ef7e8cdac81120b3.tr.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.it.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.it.png
new file mode 100644
index 00000000..27ce2361
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.it.png differ
diff --git a/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.tr.png b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.tr.png
new file mode 100644
index 00000000..999c8bba
Binary files /dev/null and b/translated_images/boxplot_byrole.036b27a1c3f52d42f66fba2324ec5cde0a1bca6a01a619eeb0ce7cd054b2527b.tr.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.it.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.it.png
new file mode 100644
index 00000000..58e1b08a
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.it.png differ
diff --git a/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.tr.png b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.tr.png
new file mode 100644
index 00000000..480c47a7
Binary files /dev/null and b/translated_images/boxplot_explanation.4039b7de08780fd493ef798b41f7291d753f1f84de8955645f00c586e65f16a3.tr.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.it.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.it.png
new file mode 100644
index 00000000..0944cc10
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.it.png differ
diff --git a/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.tr.png b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.tr.png
new file mode 100644
index 00000000..c2198dea
Binary files /dev/null and b/translated_images/busing.7b9e3b41cd4b981c6d63922cd82004cc1cf18895155536c1d98fcc0999bdd23e.tr.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.it.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.it.png
new file mode 100644
index 00000000..1e8158ca
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.it.png differ
diff --git a/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.tr.png b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.tr.png
new file mode 100644
index 00000000..a1bd5b58
Binary files /dev/null and b/translated_images/busing.8157cf1bc89a3f65052d362a78c72f964982ceb9dcacbe44480e35909c3dce62.tr.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.it.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.it.png
new file mode 100644
index 00000000..93c368a9
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.it.png differ
diff --git a/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.tr.png b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.tr.png
new file mode 100644
index 00000000..fdbb4b07
Binary files /dev/null and b/translated_images/category-counts-02.0b9a0a4de42275ae5096d0f8da590d8bf520d9e7e40aad5cc4fc8d276480cc32.tr.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.it.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.it.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.it.png differ
diff --git a/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.tr.png b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.tr.png
new file mode 100644
index 00000000..6132710f
Binary files /dev/null and b/translated_images/category-counts.abee8188c4c9b6f0b4e13e2920039c9fa5cc151031a5c28e5a5ff6fb8c072ab4.tr.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.it.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.it.png
new file mode 100644
index 00000000..e0bbdf01
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.it.png differ
diff --git a/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.tr.png b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.tr.png
new file mode 100644
index 00000000..5acb1371
Binary files /dev/null and b/translated_images/category-length-02.7304bf519375c9807d8165cc7ec60dd2a60f7b365b23098538e287d89adb7d76.tr.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.it.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.it.png
new file mode 100644
index 00000000..66c56c94
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.it.png differ
diff --git a/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.tr.png b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.tr.png
new file mode 100644
index 00000000..ff807910
Binary files /dev/null and b/translated_images/category-length.7e34c296690e85d64f7e4d25a56077442683eca96c4f5b4eae120a64c0755636.tr.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.it.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.it.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.it.png differ
diff --git a/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.tr.png b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.tr.png
new file mode 100644
index 00000000..bea2b83a
Binary files /dev/null and b/translated_images/category-length.b0d9a0208a7b37136bed52d3abd90190543fbca94bde6f51652313cc6d017187.tr.png differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.it.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.it.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.it.jpg differ
diff --git a/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.tr.jpg b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.tr.jpg
new file mode 100644
index 00000000..30a2ba6e
Binary files /dev/null and b/translated_images/cloud-picture.f5526de3c6c6387b2d656ba94f019b3352e5e3854a78440e4fb00c93e2dea675.tr.jpg differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.it.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.it.png
new file mode 100644
index 00000000..5385a3cf
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.it.png differ
diff --git a/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.tr.png b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.tr.png
new file mode 100644
index 00000000..31cda575
Binary files /dev/null and b/translated_images/cluster-1.b78cb630bb543729b11f60c34d97110a263f8c27b516ba4dc47807b3cee5579f.tr.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.it.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.it.png
new file mode 100644
index 00000000..7f5dbe5a
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.it.png differ
diff --git a/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.tr.png b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.tr.png
new file mode 100644
index 00000000..40555d32
Binary files /dev/null and b/translated_images/cluster-2.ea30cdbc9f926bb9e05af3fdbc1f679811c796dc2a6847f935290aec15526e88.tr.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.it.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.it.png
new file mode 100644
index 00000000..ab7ca94c
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.it.png differ
diff --git a/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.tr.png b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.tr.png
new file mode 100644
index 00000000..df262c8e
Binary files /dev/null and b/translated_images/cluster-3.8a334bc070ec173a329ce5abd2a9d727542e83eb2347676c9af20f2c8870b3e7.tr.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.it.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.it.png
new file mode 100644
index 00000000..d3b8b755
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.it.png differ
diff --git a/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.tr.png b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.tr.png
new file mode 100644
index 00000000..ac6aec03
Binary files /dev/null and b/translated_images/columnar-db.ffcfe73c3e9063a8c8f93f8ace85e1200863584b1e324eb5159d8ca10f62ec04.tr.png differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.it.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.it.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.it.jpg differ
diff --git a/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.tr.jpg b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.tr.jpg
new file mode 100644
index 00000000..59186b72
Binary files /dev/null and b/translated_images/communication.06d8e2a88d30d168d661ad9f9f0a4f947ebff3719719cfdaf9ed00a406a01ead.tr.jpg differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.it.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.it.png
new file mode 100644
index 00000000..8e515afe
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.it.png differ
diff --git a/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.tr.png b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.tr.png
new file mode 100644
index 00000000..8e3431cb
Binary files /dev/null and b/translated_images/comparingdata.f486a450d61c7ca5416f27f3f55a6a4465d00df3be5e6d33936e9b07b95e2fdd.tr.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.it.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.it.png
new file mode 100644
index 00000000..116829f4
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.it.png differ
diff --git a/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.tr.png b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.tr.png
new file mode 100644
index 00000000..8a1509c5
Binary files /dev/null and b/translated_images/compute-instance-1.dba347cb199ca4996b3e3d649295ed95626ba481479d3986557b9b98e76d8816.tr.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.it.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.it.png
new file mode 100644
index 00000000..0fab3601
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.it.png differ
diff --git a/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.tr.png b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.tr.png
new file mode 100644
index 00000000..502de39a
Binary files /dev/null and b/translated_images/consumption-1.700abd196452842a020c7d745908637a6e4c5c50494ad1217be80e283e0de154.tr.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.it.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.it.png
new file mode 100644
index 00000000..1b87f557
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.it.png differ
diff --git a/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.tr.png b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.tr.png
new file mode 100644
index 00000000..79ccf3d2
Binary files /dev/null and b/translated_images/cosmosdb-emulator-explorer.a1c80b1347206fe2f30f88fc123821636587d04fc5a56a9eb350c7da6b31f361.tr.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.it.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.it.png
new file mode 100644
index 00000000..2fe2a1cc
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.it.png differ
diff --git a/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.tr.png b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.tr.png
new file mode 100644
index 00000000..2677a33d
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons-query.6905ebb497e3cd047cd96e55a0a03f69ce1b91b2b3d8c147e617b746b22b7e33.tr.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.it.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.it.png
new file mode 100644
index 00000000..7222eca7
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.it.png differ
diff --git a/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.tr.png b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.tr.png
new file mode 100644
index 00000000..d8d96008
Binary files /dev/null and b/translated_images/cosmosdb-emulator-persons.bf640586a7077c8985dfd3071946465c8e074c722c7c202d6d714de99a93b90a.tr.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.it.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.it.png
new file mode 100644
index 00000000..d472d826
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.it.png differ
diff --git a/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.tr.png b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.tr.png
new file mode 100644
index 00000000..fd9ee218
Binary files /dev/null and b/translated_images/covidspread.f3d131c4f1d260ab0344d79bac0abe7924598dd754859b165955772e1bd5e8a2.tr.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.it.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.it.png
new file mode 100644
index 00000000..25113665
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.it.png differ
diff --git a/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.tr.png b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.tr.png
new file mode 100644
index 00000000..2246e02a
Binary files /dev/null and b/translated_images/covidtreat.b2ba59f57ca45fbcda36e0ddca3f8cfdddeeed6ca879ea7f866d93fa6ec65791.tr.png differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.it.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.it.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.it.jpg differ
diff --git a/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.tr.jpg b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.tr.jpg
new file mode 100644
index 00000000..54145b36
Binary files /dev/null and b/translated_images/data-love.a22ef29e6742c852505ada062920956d3d7604870b281a8ca7c7ac6f37381d5a.tr.jpg differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.it.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.it.png
new file mode 100644
index 00000000..6fe51116
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.it.png differ
diff --git a/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.tr.png b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.tr.png
new file mode 100644
index 00000000..a1ea8671
Binary files /dev/null and b/translated_images/data-science-applications.4e5019cd8790ebac2277ff5f08af386f8727cac5d30f77727c7090677e6adb9c.tr.png differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.it.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.it.jpg
new file mode 100644
index 00000000..e1588b00
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.it.jpg differ
diff --git a/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.tr.jpg b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.tr.jpg
new file mode 100644
index 00000000..b3498fc9
Binary files /dev/null and b/translated_images/data-science-lifecycle.a1e362637503c4fb0cd5e859d7552edcdb4aa629a279727008baa121f2d33f32.tr.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.it.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.it.jpg
new file mode 100644
index 00000000..ee4d0d2a
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.it.jpg differ
diff --git a/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.tr.jpg b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.tr.jpg
new file mode 100644
index 00000000..df5ec0bf
Binary files /dev/null and b/translated_images/data.48e22bb7617d8d92188afbc4c48effb920ba79f5cebdc0652cd9f34bbbd90c18.tr.jpg differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.it.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.it.png
new file mode 100644
index 00000000..9fe9d29b
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.it.png differ
diff --git a/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.tr.png b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.tr.png
new file mode 100644
index 00000000..8c59c9cb
Binary files /dev/null and b/translated_images/dataframe-1.caf409f0c688e84c85b793998b945f3cb66554e13dbb490d4a52f37909a41eb4.tr.png differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.it.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.it.jpg
new file mode 100644
index 00000000..3639209f
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.it.jpg differ
diff --git a/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.tr.jpg b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.tr.jpg
new file mode 100644
index 00000000..c989a818
Binary files /dev/null and b/translated_images/datascienceinthecloud.59ffb059a670fb0a68fee3f0f2906239b25240a57c3990b8c0809c9c7703eabd.tr.jpg differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.it.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.it.png
new file mode 100644
index 00000000..652207fe
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.it.png differ
diff --git a/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.tr.png b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.tr.png
new file mode 100644
index 00000000..38b79715
Binary files /dev/null and b/translated_images/dataset-1.e86ab4e10907a6e9c2a72577b51db35f13689cb33702337b8b7032f2ef76dac2.tr.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.it.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.it.png
new file mode 100644
index 00000000..ac4d6a08
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.it.png differ
diff --git a/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.tr.png b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.tr.png
new file mode 100644
index 00000000..dea8ab27
Binary files /dev/null and b/translated_images/dataset-2.f58de1c435d5bf9ccb16ccc5f5d4380eb2b50affca85cfbf4f97562bdab99f77.tr.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.it.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.it.png
new file mode 100644
index 00000000..92f9f71b
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.it.png differ
diff --git a/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.tr.png b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.tr.png
new file mode 100644
index 00000000..cab5c1f5
Binary files /dev/null and b/translated_images/dataset-3.58db8c0eb783e89236a02bbce5bb4ba808d081a87d994d5284b1ae59928c95bf.tr.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.it.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.it.png
new file mode 100644
index 00000000..cb08b7a8
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.it.png differ
diff --git a/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.tr.png b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.tr.png
new file mode 100644
index 00000000..aada8739
Binary files /dev/null and b/translated_images/density-plot.675ccf865b76c690487fb7f69420a8444a3515f03bad5482886232d4330f5c85.tr.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.it.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.it.png
new file mode 100644
index 00000000..1db65d50
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.it.png differ
diff --git a/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.tr.png b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.tr.png
new file mode 100644
index 00000000..4b2f8dfc
Binary files /dev/null and b/translated_images/density1.8801043bd4af2567b0f706332b5853c7614e5e4b81b457acc27eb4e092a65cbd.tr.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.it.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.it.png
new file mode 100644
index 00000000..6979d645
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.it.png differ
diff --git a/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.tr.png b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.tr.png
new file mode 100644
index 00000000..4ccfd5cb
Binary files /dev/null and b/translated_images/density2.8e7647257060ff544a1aaded57e8dd1887586bfe340139e9b77ac1e5287f7977.tr.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.it.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.it.png
new file mode 100644
index 00000000..17cacc80
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.it.png differ
diff --git a/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.tr.png b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.tr.png
new file mode 100644
index 00000000..94451c8c
Binary files /dev/null and b/translated_images/density3.84ae27da82f31e6b83ad977646f029a1d21186574d7581facd70123b3eb257ee.tr.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.it.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.it.png
new file mode 100644
index 00000000..5d9bfde6
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.it.png differ
diff --git a/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.tr.png b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.tr.png
new file mode 100644
index 00000000..0fe5c453
Binary files /dev/null and b/translated_images/density4.e9d6c033f15c500fd33df94cb592b9f5cf1ed2a3d213c448a3f9e97ba39573ce.tr.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.it.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.it.png
new file mode 100644
index 00000000..71823431
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.it.png differ
diff --git a/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.tr.png b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.tr.png
new file mode 100644
index 00000000..b6bfb673
Binary files /dev/null and b/translated_images/deploy-1.ddad725acadc84e34553c3d09e727160faeb32527a9fb8b904c0f99235a34bb6.tr.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.it.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.it.png
new file mode 100644
index 00000000..9d2f36a6
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.it.png differ
diff --git a/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.tr.png b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.tr.png
new file mode 100644
index 00000000..68283183
Binary files /dev/null and b/translated_images/deploy-2.94dbb13f239086473aa4bf814342fd40483d136849b080f02bafbb995383940e.tr.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.it.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.it.png
new file mode 100644
index 00000000..d8a222b2
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.it.png differ
diff --git a/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.tr.png b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.tr.png
new file mode 100644
index 00000000..3ac3a2a8
Binary files /dev/null and b/translated_images/deploy-3.fecefef070e8ef3b28e802326d107f61ac4e672d20bf82d05f78d025f9e6c611.tr.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.it.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.it.png
new file mode 100644
index 00000000..b0d91bfc
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.it.png differ
diff --git a/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.tr.png b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.tr.png
new file mode 100644
index 00000000..60479457
Binary files /dev/null and b/translated_images/dist1-wb.0d0cac82e2974fbbec635826fefead401af795f82e2279e2e2678bf2c117d827.tr.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.it.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.it.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.it.png differ
diff --git a/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.tr.png b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.tr.png
new file mode 100644
index 00000000..ccc99767
Binary files /dev/null and b/translated_images/dist1.0010100b00231819be7540ba60a4909cbda8a1a83c1cc1ceb4d4e8a5bcb325f4.tr.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.it.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.it.png
new file mode 100644
index 00000000..cec5697c
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.it.png differ
diff --git a/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.tr.png b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.tr.png
new file mode 100644
index 00000000..791341cc
Binary files /dev/null and b/translated_images/dist2-wb.2c0a7a3499b2fbf561e9f93b69f265dfc538dc78f6de15088ba84a88152e26ba.tr.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.it.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.it.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.it.png differ
diff --git a/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.tr.png b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.tr.png
new file mode 100644
index 00000000..f2d0f317
Binary files /dev/null and b/translated_images/dist2.c398bfd5320401b924305d2cc20a6c0f6670455e61abaf827a359d07b4248969.tr.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.it.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.it.png
new file mode 100644
index 00000000..9deedb18
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.it.png differ
diff --git a/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.tr.png b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.tr.png
new file mode 100644
index 00000000..c0124bd9
Binary files /dev/null and b/translated_images/dist3-wb.64b88db7f9780200bd486a2c2a3252548dd439672dbd3f778193db7f654b100c.tr.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.it.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.it.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.it.png differ
diff --git a/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.tr.png b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.tr.png
new file mode 100644
index 00000000..e48b0151
Binary files /dev/null and b/translated_images/dist3.ad4d9658559690f561d0ac76bfee5843cce918f9c83805be66e0790ac824ef07.tr.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.it.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.it.png
new file mode 100644
index 00000000..74cb8d65
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.it.png differ
diff --git a/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.tr.png b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.tr.png
new file mode 100644
index 00000000..7aa5c293
Binary files /dev/null and b/translated_images/distribution-30bins.6a3921ea7a421bf71f06bf5231009e43d1146f1b8da8dc254e99b5779a4983e5.tr.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.it.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.it.png
new file mode 100644
index 00000000..d3c69875
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.it.png differ
diff --git a/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.tr.png b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.tr.png
new file mode 100644
index 00000000..4326b615
Binary files /dev/null and b/translated_images/distribution-over-the-entire-dataset.d22afd3fa96be854e4c82213fedec9e3703cba753d07fad4606aadf58cf7e78e.tr.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.it.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.it.png
new file mode 100644
index 00000000..a7c91a8e
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.it.png differ
diff --git a/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.tr.png b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.tr.png
new file mode 100644
index 00000000..d559c218
Binary files /dev/null and b/translated_images/document-db.ddeec48c6dc9e5fd1c905a6de302537f57a2e74c82753baeaa27e992512282b9.tr.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.it.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.it.png
new file mode 100644
index 00000000..ffeb8473
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.it.png differ
diff --git a/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.tr.png b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.tr.png
new file mode 100644
index 00000000..8250882b
Binary files /dev/null and b/translated_images/donut-wb.34e6fb275da9d834c2205145e39a3de9b6878191dcdba6f7a9e85f4b520449bc.tr.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.it.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.it.png
new file mode 100644
index 00000000..6bf27ccd
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.it.png differ
diff --git a/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.tr.png b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.tr.png
new file mode 100644
index 00000000..8e3ba5ec
Binary files /dev/null and b/translated_images/donut-wb.be3c12a22712302b5d10c40014d5389d4a1ae4412fe1655b3cf4af57b64f799a.tr.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.it.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.it.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.it.png differ
diff --git a/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.tr.png b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.tr.png
new file mode 100644
index 00000000..e109b4c9
Binary files /dev/null and b/translated_images/donut.f016d7be7f08c8f8c49e9217b2ee05e952ecd1bd8c6f5c49466080f4991ad790.tr.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.it.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.it.png
new file mode 100644
index 00000000..4361a3cf
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.it.png differ
diff --git a/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.tr.png b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.tr.png
new file mode 100644
index 00000000..d6b0a136
Binary files /dev/null and b/translated_images/ds-for-beginners.d01930c9193ef5228caf620d5462a4189dc1a551e34d121eb777e0463889d7a5.tr.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.it.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.it.png
new file mode 100644
index 00000000..b412a4de
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.it.png differ
diff --git a/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.tr.png b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.tr.png
new file mode 100644
index 00000000..40582738
Binary files /dev/null and b/translated_images/ds_wordcloud.664a7c07dca57de017c22bf0498cb40f898d48aa85b3c36a80620fea12fadd42.tr.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.it.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.it.png
new file mode 100644
index 00000000..3750bd3e
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.it.png differ
diff --git a/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.tr.png b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.tr.png
new file mode 100644
index 00000000..0039dc41
Binary files /dev/null and b/translated_images/dual-line.a4c28ce659603fab2c003f4df816733df2bf41d1facb7de27989ec9afbf01b33.tr.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.it.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.it.png
new file mode 100644
index 00000000..6b08fe65
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.it.png differ
diff --git a/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.tr.png b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.tr.png
new file mode 100644
index 00000000..e15b47f0
Binary files /dev/null and b/translated_images/dual-line.fc4665f360a54018d7df9bc6abcc26460112e17dcbda18d3b9ae6109b32b36c3.tr.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.it.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.it.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.it.png differ
diff --git a/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.tr.png b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.tr.png
new file mode 100644
index 00000000..9773f440
Binary files /dev/null and b/translated_images/facet.491ad90d61c2a7cc69b50c929f80786c749e38217ccedbf1e22ed8909b65987c.tr.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.it.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.it.png
new file mode 100644
index 00000000..d4adc2d9
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.it.png differ
diff --git a/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.tr.png b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.tr.png
new file mode 100644
index 00000000..ca2dfa7f
Binary files /dev/null and b/translated_images/facet.6a34851dcd540050dcc0ead741be35075d776741668dd0e42f482c89b114c217.tr.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.it.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.it.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.it.png differ
diff --git a/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.tr.png b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.tr.png
new file mode 100644
index 00000000..26e0ae43
Binary files /dev/null and b/translated_images/favicon.37b561214b36d454f9fd1f725d77f310fe256eb88f2a0ae08b9cb18aeb30650c.tr.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.it.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.it.png
new file mode 100644
index 00000000..f0c55aae
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.it.png differ
diff --git a/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.tr.png b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.tr.png
new file mode 100644
index 00000000..364aff36
Binary files /dev/null and b/translated_images/filtered-histogram.6bf5d2bfd82533220e1bd4bc4f7d14308f43746ed66721d9ec8f460732be6674.tr.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.it.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.it.png
new file mode 100644
index 00000000..b57ac07b
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.it.png differ
diff --git a/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.tr.png b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.tr.png
new file mode 100644
index 00000000..2619be0a
Binary files /dev/null and b/translated_images/formula-excel.ad1068c220892f5ead570d12f2394897961d31a5043a1dd4e6fc5d7690c7a14e.tr.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.it.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.it.png
new file mode 100644
index 00000000..b97a0ce0
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.it.png differ
diff --git a/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.tr.png b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.tr.png
new file mode 100644
index 00000000..966ad12d
Binary files /dev/null and b/translated_images/full-data-bar-02.aaa3fda71c63ed564b917841a1886c177dd9a26424142e510c0c0498fd6ca160.tr.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.it.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.it.png
new file mode 100644
index 00000000..febd4878
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.it.png differ
diff --git a/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.tr.png b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.tr.png
new file mode 100644
index 00000000..d4cb54ad
Binary files /dev/null and b/translated_images/full-data-bar.a0b37da71a6cd23610c83d1e737c4f0aff0524724ed527b9bed12c0bac5f2f07.tr.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.it.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.it.png
new file mode 100644
index 00000000..e13a2269
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.it.png differ
diff --git a/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.tr.png b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.tr.png
new file mode 100644
index 00000000..c0c6675e
Binary files /dev/null and b/translated_images/function-excel.be2ae4feddc10ca089f3d4363040d93b7fd046c8d4f83ba975ec46483ee99895.tr.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.it.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.it.png
new file mode 100644
index 00000000..c257dab0
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.it.png differ
diff --git a/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.tr.png b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.tr.png
new file mode 100644
index 00000000..2e6a2ac3
Binary files /dev/null and b/translated_images/graph-db.d13629152f79a9dac895b20fa7d841d4d4d6f6008b1382227c3bbd200fd4cfa1.tr.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.it.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.it.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.it.png differ
diff --git a/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.tr.png b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.tr.png
new file mode 100644
index 00000000..09dcc959
Binary files /dev/null and b/translated_images/height-boxplot.ccb66b2848b5f51cd28e3acf89512ac7101ad36d0c07fc7b93762c9dcf368d7d.tr.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.it.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.it.png
new file mode 100644
index 00000000..eecb0f9c
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.it.png differ
diff --git a/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.tr.png b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.tr.png
new file mode 100644
index 00000000..9481426a
Binary files /dev/null and b/translated_images/histogram-conservation-wb.3c40450eb072c14de7a1a3ec5c0fcba4995531024760741b392911b567fd8b70.tr.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.it.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.it.png
new file mode 100644
index 00000000..d3dc25ec
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.it.png differ
diff --git a/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.tr.png b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.tr.png
new file mode 100644
index 00000000..72d94b41
Binary files /dev/null and b/translated_images/histogram-conservation.13b3542e7784e41585a3763ba6dfbfaa2a372bcd9edae90675ad18f7b13fa7e3.tr.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.it.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.it.png
new file mode 100644
index 00000000..b7c1aed8
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.it.png differ
diff --git a/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.tr.png b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.tr.png
new file mode 100644
index 00000000..af17c476
Binary files /dev/null and b/translated_images/kv-db.e8f2b75686bbdfcba0c827b9272c10ae0821611ea0fe98429b9d13194383afa6.tr.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.it.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.it.png
new file mode 100644
index 00000000..b93cb105
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.it.png differ
diff --git a/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.tr.png b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.tr.png
new file mode 100644
index 00000000..6846945a
Binary files /dev/null and b/translated_images/labeled-wingspan-02.6110e2d2401cd5238ccc24dfb6d04a6c19436101f6cec151e3992e719f9f1e1f.tr.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.it.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.it.png
new file mode 100644
index 00000000..3f0872f8
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.it.png differ
diff --git a/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.tr.png b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.tr.png
new file mode 100644
index 00000000..7a154cc9
Binary files /dev/null and b/translated_images/labeled-wingspan.900ffedd7e3ec6de17070dac63c1cf624cb083fb5b6a157bbb1d60f327f331aa.tr.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.it.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.it.png
new file mode 100644
index 00000000..1751f5e7
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.it.png differ
diff --git a/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.tr.png b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.tr.png
new file mode 100644
index 00000000..0fb9fdd4
Binary files /dev/null and b/translated_images/less-smooth-bodymass.10f4db8b683cc17d17b2d33f22405413142004467a1493d416608dafecfdee23.tr.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.it.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.it.png
new file mode 100644
index 00000000..b4eaab5f
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.it.png differ
diff --git a/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.tr.png b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.tr.png
new file mode 100644
index 00000000..be3062f5
Binary files /dev/null and b/translated_images/liaisons.7b440b28f6d07ea430244fdf1fc4c64ff48f473f143b8e921846eda1c302aeba.tr.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.it.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.it.png
new file mode 100644
index 00000000..b4eaab5f
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.it.png differ
diff --git a/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.tr.png b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.tr.png
new file mode 100644
index 00000000..99d94e86
Binary files /dev/null and b/translated_images/liaisons.90ce7360bcf8476558f700bbbaf198ad697d5b5cb2829ba141a89c0add7c6ecd.tr.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.it.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.it.png
new file mode 100644
index 00000000..8ef32672
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.it.png differ
diff --git a/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.tr.png b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.tr.png
new file mode 100644
index 00000000..e4edea6f
Binary files /dev/null and b/translated_images/line1.299b576fbb2a59e60a59e7130030f59836891f90302be084e4e8d14da0562e2a.tr.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.it.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.it.png
new file mode 100644
index 00000000..764a01b0
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.it.png differ
diff --git a/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.tr.png b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.tr.png
new file mode 100644
index 00000000..5079f870
Binary files /dev/null and b/translated_images/line1.f36eb465229a3b1fe385cdc93861aab3939de987d504b05de0b6cd567ef79f43.tr.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.it.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.it.png
new file mode 100644
index 00000000..68fc33b8
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.it.png differ
diff --git a/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.tr.png b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.tr.png
new file mode 100644
index 00000000..e8c8467b
Binary files /dev/null and b/translated_images/line2.3b18fcda7176ceba5b6689eaaabb817d49c965e986f11cac1ae3f424030c34d8.tr.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.it.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.it.png
new file mode 100644
index 00000000..15dcdbba
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.it.png differ
diff --git a/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.tr.png b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.tr.png
new file mode 100644
index 00000000..383c4f06
Binary files /dev/null and b/translated_images/line2.a5b3493dc01058af6402e657aaa9ae1125fafb5e7d6630c777aa60f900a544e4.tr.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.it.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.it.png
new file mode 100644
index 00000000..d85570ba
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.it.png differ
diff --git a/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.tr.png b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.tr.png
new file mode 100644
index 00000000..08988b71
Binary files /dev/null and b/translated_images/max-length-per-order.e5b283d952c78c12b091307c5d3cf67132dad6fefe80a073353b9dc5c2bd3eb8.tr.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.it.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.it.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.it.png differ
diff --git a/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.tr.png b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.tr.png
new file mode 100644
index 00000000..96713a66
Binary files /dev/null and b/translated_images/max-wingspan-02.e79fd847b2640b89e21e340a3a9f4c5d4b224c4fcd65f54385e84f1c9ed26d52.tr.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.it.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.it.png
new file mode 100644
index 00000000..757cc510
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.it.png differ
diff --git a/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.tr.png b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.tr.png
new file mode 100644
index 00000000..18bb1a43
Binary files /dev/null and b/translated_images/max-wingspan-labels-02.aa90e826ca49a9d1dde78075e9755c1849ef56a4e9ec60f7e9f3806daf9283e2.tr.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.it.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.it.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.it.png differ
diff --git a/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.tr.png b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.tr.png
new file mode 100644
index 00000000..0c37ab05
Binary files /dev/null and b/translated_images/max-wingspan-labels.46f0cc3c48edd4e00e6ab6d8797e2717a33b4b94d97af3539c5442a1299d03c1.tr.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.it.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.it.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.it.png differ
diff --git a/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.tr.png b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.tr.png
new file mode 100644
index 00000000..72f5a3e4
Binary files /dev/null and b/translated_images/max-wingspan.0b8d0858436414aa1c53556bfd07e7d4267120782d236abe10e0473252de0760.tr.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.it.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.it.png
new file mode 100644
index 00000000..4a5c9c5b
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.it.png differ
diff --git a/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.tr.png b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.tr.png
new file mode 100644
index 00000000..2496d101
Binary files /dev/null and b/translated_images/multi.56548caa9eae8d0fd9012a8586295538c7f4f426e2abc714ba070e2e4b1fc2c1.tr.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.it.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.it.png
new file mode 100644
index 00000000..15464b67
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.it.png differ
diff --git a/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.tr.png b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.tr.png
new file mode 100644
index 00000000..c6cf61af
Binary files /dev/null and b/translated_images/new-container.650e10c7a20a5f83824264bfaa0f818d8c203f98136f4647385bd0c369b5035b.tr.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.it.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.it.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.it.png differ
diff --git a/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.tr.png b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.tr.png
new file mode 100644
index 00000000..3e9ab8ac
Binary files /dev/null and b/translated_images/normal-histogram.dfae0d67c202137d552d0015fb87581eca263925e512404f3c12d8885315432e.tr.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.it.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.it.png
new file mode 100644
index 00000000..a4086f6c
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.it.png differ
diff --git a/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.tr.png b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.tr.png
new file mode 100644
index 00000000..76f87345
Binary files /dev/null and b/translated_images/notebook-1.12998af7b02c83f536c11b3aeba561be16e0f05e94146600728ec64270ce1105.tr.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.it.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.it.png
new file mode 100644
index 00000000..ce354728
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.it.png differ
diff --git a/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.tr.png b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.tr.png
new file mode 100644
index 00000000..5aa9b2db
Binary files /dev/null and b/translated_images/notebook-2.9a657c037e34f1cf26c0212f5ee9e2da8545b3e107c7682c55114e494167a8aa.tr.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.it.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.it.png
new file mode 100644
index 00000000..a4b95c06
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.it.png differ
diff --git a/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.tr.png b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.tr.png
new file mode 100644
index 00000000..ed8593e9
Binary files /dev/null and b/translated_images/parts-of-spreadsheet.120711c82aa18a45c3e62a491a15bba0a31ab0e9db407ec022702fed8ffd89bf.tr.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.it.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.it.png
new file mode 100644
index 00000000..73a808aa
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.it.png differ
diff --git a/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.tr.png b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.tr.png
new file mode 100644
index 00000000..4b29f428
Binary files /dev/null and b/translated_images/pie1-wb.685df063673751f4b0b82127f7a52c7f9a920192f22ae61ad28412ba9ace97bf.tr.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.it.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.it.png
new file mode 100644
index 00000000..967c07ee
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.it.png differ
diff --git a/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.tr.png b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.tr.png
new file mode 100644
index 00000000..027ed3a1
Binary files /dev/null and b/translated_images/pie1-wb.e201f2fcc335413143ce37650fb7f5f0bb21358e7823a327ed8644dfb84be9db.tr.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.it.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.it.png
new file mode 100644
index 00000000..a49d4c21
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.it.png differ
diff --git a/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.tr.png b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.tr.png
new file mode 100644
index 00000000..9761f638
Binary files /dev/null and b/translated_images/pie1.8f6a8bfac96de60e38ced1a1ac39fd9caafa95142b3bbcb65d540bcad678806f.tr.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.it.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.it.png
new file mode 100644
index 00000000..e555e306
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.it.png differ
diff --git a/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.tr.png b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.tr.png
new file mode 100644
index 00000000..ed34c640
Binary files /dev/null and b/translated_images/planetary-computer-explorer.c1e95a9b053167d64e2e8e4347cfb689e47e2037c33103fc1bbea1a149d4f85b.tr.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.it.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.it.png
new file mode 100644
index 00000000..276636a0
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.it.png differ
diff --git a/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.tr.png b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.tr.png
new file mode 100644
index 00000000..4ecf2a5b
Binary files /dev/null and b/translated_images/probability-density.a8aad29f17a14afb519b407c7b6edeb9f3f9aa5f69c9e6d9445f604e5f8a2bf7.tr.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.it.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.it.png
new file mode 100644
index 00000000..ba7b2aff
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.it.png differ
diff --git a/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.tr.png b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.tr.png
new file mode 100644
index 00000000..e66d026f
Binary files /dev/null and b/translated_images/project-schema.420e56d495624541eaecf2b737f138c86fb7d8162bb1c0bf8783c350872ffc4d.tr.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.it.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.it.png
new file mode 100644
index 00000000..ba7b2aff
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.it.png differ
diff --git a/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.tr.png b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.tr.png
new file mode 100644
index 00000000..e66d026f
Binary files /dev/null and b/translated_images/project-schema.736f6e403f321eb48d10242b3f4334dc6ccf0eabef8ff87daf52b89781389fcb.tr.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.it.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.it.png
new file mode 100644
index 00000000..37c991b1
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.it.png differ
diff --git a/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.tr.png b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.tr.png
new file mode 100644
index 00000000..aff415cc
Binary files /dev/null and b/translated_images/scatter-wb.9d98b0ed7f0388af979441853361a11df5f518f5307938a503ca7913e986111b.tr.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.it.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.it.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.it.png differ
diff --git a/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.tr.png b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.tr.png
new file mode 100644
index 00000000..4b96709c
Binary files /dev/null and b/translated_images/scatter.520a43eceb46dbcb96899da0f580f3f3615cf9dba38c9c84e52ebc6b4b48e3ff.tr.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.it.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.it.png
new file mode 100644
index 00000000..1a0ba023
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.it.png differ
diff --git a/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.tr.png b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.tr.png
new file mode 100644
index 00000000..dd1b15cb
Binary files /dev/null and b/translated_images/scatter1.5e1aa5fd6706c5d12b5e503ccb77f8a930f8620f539f524ddf56a16c039a5d2f.tr.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.it.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.it.png
new file mode 100644
index 00000000..0f980f38
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.it.png differ
diff --git a/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.tr.png b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.tr.png
new file mode 100644
index 00000000..7ed3a926
Binary files /dev/null and b/translated_images/scatter1.86b8900674d88b26dd3353a83fe604e9ab3722c4680cc40ee9beb452ff02cdea.tr.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.it.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.it.png
new file mode 100644
index 00000000..f11b3de6
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.it.png differ
diff --git a/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.tr.png b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.tr.png
new file mode 100644
index 00000000..14be2f45
Binary files /dev/null and b/translated_images/scatter2.4d1cbc693bad20e2b563888747eb6bdf65b73ce449d903f7cd4068a78502dcff.tr.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.it.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.it.png
new file mode 100644
index 00000000..dbc8eb5a
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.it.png differ
diff --git a/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.tr.png b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.tr.png
new file mode 100644
index 00000000..43ac2b8e
Binary files /dev/null and b/translated_images/scatter2.c0041a58621ca702990b001aa0b20cd68c1e1814417139af8a7211a2bed51c5f.tr.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.it.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.it.png
new file mode 100644
index 00000000..eb86e1f3
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.it.png differ
diff --git a/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.tr.png b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.tr.png
new file mode 100644
index 00000000..eb86e1f3
Binary files /dev/null and b/translated_images/scatter3.3c160a3d1dcb36b37900ebb4cf97f34036f28ae2b7b8e6062766c7c1dfc00853.tr.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.it.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.it.png
new file mode 100644
index 00000000..c88aebc1
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.it.png differ
diff --git a/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.tr.png b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.tr.png
new file mode 100644
index 00000000..34829455
Binary files /dev/null and b/translated_images/scatter3.722d21e6f20b3ea2e18339bb9b10d75906126715eb7d5fdc88fe74dcb6d7066a.tr.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.it.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.it.png
new file mode 100644
index 00000000..e4c9e49e
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.it.png differ
diff --git a/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.tr.png b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.tr.png
new file mode 100644
index 00000000..eba2d817
Binary files /dev/null and b/translated_images/scatterplot-wingspan-02.1c33790094ce36a75f5fb45b25ed2cf27f0356ea609e43c11e97a2cedd7011a4.tr.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.it.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.it.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.it.png differ
diff --git a/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.tr.png b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.tr.png
new file mode 100644
index 00000000..420674b6
Binary files /dev/null and b/translated_images/scatterplot-wingspan.bdab448702939bb32a0d3522a9fcd8aa36d5f428aca5e8655a677eb6d0597111.tr.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.it.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.it.png
new file mode 100644
index 00000000..54d73c96
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.it.png differ
diff --git a/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.tr.png b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.tr.png
new file mode 100644
index 00000000..a3b6bb66
Binary files /dev/null and b/translated_images/stacked-bar-chart.0c92264e89da7b391a7490224d1e7059a020e8b74dcd354414aeac78871c02f1.tr.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.it.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.it.png
new file mode 100644
index 00000000..d4c74c35
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.it.png differ
diff --git a/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.tr.png b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.tr.png
new file mode 100644
index 00000000..3e3a5aa5
Binary files /dev/null and b/translated_images/superimposed-02.f03058536baeb2ed7864f01102538464d4c2fd7ade881ddd7d5ba74dc5d2fdae.tr.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.it.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.it.png
new file mode 100644
index 00000000..810bf437
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.it.png differ
diff --git a/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.tr.png b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.tr.png
new file mode 100644
index 00000000..40075d12
Binary files /dev/null and b/translated_images/superimposed-values.5363f0705a1da4167625a373a1064331ea3cb7a06a297297d0734fcc9b3819a0.tr.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.it.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.it.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.it.png differ
diff --git a/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.tr.png b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.tr.png
new file mode 100644
index 00000000..462346a6
Binary files /dev/null and b/translated_images/superimposed.8b5bd0e8825d9c5c06e2b15d61e3f7ebdd36678f2bdfa1e74c57e24e4486885a.tr.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.it.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.it.png
new file mode 100644
index 00000000..eca296d8
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.it.png differ
diff --git a/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.tr.png b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.tr.png
new file mode 100644
index 00000000..2dab09f4
Binary files /dev/null and b/translated_images/tdsp-lifecycle2.e19029d598e2e73d5ef8a4b98837d688ec6044fe332c905d4dbb69eb6d5c1d96.tr.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.it.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.it.png
new file mode 100644
index 00000000..5346623d
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.it.png differ
diff --git a/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.tr.png b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.tr.png
new file mode 100644
index 00000000..84183abf
Binary files /dev/null and b/translated_images/timeseries-1.80de678ab1cf727e50e00bcf24009fa2b0a8b90ebc43e34b99a345227d28e467.tr.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.it.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.it.png
new file mode 100644
index 00000000..4e1defad
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.it.png differ
diff --git a/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.tr.png b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.tr.png
new file mode 100644
index 00000000..74e6162a
Binary files /dev/null and b/translated_images/timeseries-2.aae51d575c55181ceda81ade8c546a2fc2024f9136934386d57b8a189d7570ff.tr.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.it.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.it.png
new file mode 100644
index 00000000..b165de06
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.it.png differ
diff --git a/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.tr.png b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.tr.png
new file mode 100644
index 00000000..fdf12180
Binary files /dev/null and b/translated_images/timeseries-3.f3147cbc8c624881008564bc0b5d9fcc15e7374d339da91766bd0e1c6bd9e3af.tr.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.it.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.it.png
new file mode 100644
index 00000000..06158e96
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.it.png differ
diff --git a/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.tr.png b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.tr.png
new file mode 100644
index 00000000..327179c1
Binary files /dev/null and b/translated_images/tornado.2880ffc7f135f82b5e5328624799010abefd1080ae4b7ecacbdc7d792f1d8849.tr.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.it.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.it.png
new file mode 100644
index 00000000..08f7f578
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.it.png differ
diff --git a/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.tr.png b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.tr.png
new file mode 100644
index 00000000..739d5496
Binary files /dev/null and b/translated_images/tornado.9f42168791208f970d6faefc11d1226d7ca89518013b14aa66b1c9edcd7678d2.tr.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.it.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.it.png
new file mode 100644
index 00000000..d704d1fa
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.it.png differ
diff --git a/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.tr.png b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.tr.png
new file mode 100644
index 00000000..3aac6baf
Binary files /dev/null and b/translated_images/video-def-ds.6623ee2392ef1abf6d7faf3fad10a4163642811749da75f44e35a5bb121de15c.tr.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.it.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.it.png
new file mode 100644
index 00000000..7f15f4c0
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.it.png differ
diff --git a/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.tr.png b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.tr.png
new file mode 100644
index 00000000..61ef14f2
Binary files /dev/null and b/translated_images/video-ds-python.245247dc811db8e4d5ac420246de8a118c63fd28f6a56578d08b630ae549f260.tr.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.it.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.it.png
new file mode 100644
index 00000000..e3d4e7c1
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.it.png differ
diff --git a/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.tr.png b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.tr.png
new file mode 100644
index 00000000..9113fdfe
Binary files /dev/null and b/translated_images/video-prob-and-stats.e4282e5efa2f2543400843ed98b1057065c9600cebfc8a728e8931b5702b2ae4.tr.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.it.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.it.png
new file mode 100644
index 00000000..f6ff7d9b
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.it.png differ
diff --git a/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.tr.png b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.tr.png
new file mode 100644
index 00000000..f69b3b90
Binary files /dev/null and b/translated_images/waffle.5455dbae4ccf17d53bb40ff0a657ecef7b8aa967e27a19cc96325bd81598f65e.tr.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.it.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.it.png
new file mode 100644
index 00000000..78610f5f
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.it.png differ
diff --git a/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.tr.png b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.tr.png
new file mode 100644
index 00000000..f8f684b4
Binary files /dev/null and b/translated_images/waffle.aaa75c5337735a6ef32ace0ffb6506ef49e5aefe870ffd72b1bb080f4843c217.tr.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.it.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.it.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.it.png differ
diff --git a/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.tr.png b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.tr.png
new file mode 100644
index 00000000..c3128ec7
Binary files /dev/null and b/translated_images/weight-boxplot.1dbab1c03af26f8a008fff4e17680082c8ab147d6df646cbac440bbf8f5b9c42.tr.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.it.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.it.png
new file mode 100644
index 00000000..0a4383fe
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.it.png differ
diff --git a/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.tr.png b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.tr.png
new file mode 100644
index 00000000..726e6e2e
Binary files /dev/null and b/translated_images/weight-height-relationship.3f06bde4ca2aba9974182c4ef037ed602acd0fbbbbe2ca91cefd838a9e66bcf9.tr.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.it.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.it.png
new file mode 100644
index 00000000..34ebf30f
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.it.png differ
diff --git a/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.tr.png b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.tr.png
new file mode 100644
index 00000000..f21445d6
Binary files /dev/null and b/translated_images/weight-histogram.bfd00caf7fc30b145b21e862dba7def41c75635d5280de25d840dd7f0b00545e.tr.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.it.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.it.png
new file mode 100644
index 00000000..c4db22d5
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.it.png differ
diff --git a/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.tr.png b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.tr.png
new file mode 100644
index 00000000..0a721239
Binary files /dev/null and b/translated_images/wingspan-conservation-collation.4024e9aa6910866aa82f0c6cb6a6b4b925bd10079e6b0ef8f92eefa5a6792f76.tr.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.it.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.it.png
new file mode 100644
index 00000000..cd2ea6b4
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.it.png differ
diff --git a/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.tr.png b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.tr.png
new file mode 100644
index 00000000..ddcfcf9e
Binary files /dev/null and b/translated_images/workspace-1.ac8694d60b073ed1ae8333d71244dc8a9b3e439d54593724f98f1beefdd27b08.tr.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.it.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.it.png
new file mode 100644
index 00000000..58cb93a8
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.it.png differ
diff --git a/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.tr.png b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.tr.png
new file mode 100644
index 00000000..130e65c4
Binary files /dev/null and b/translated_images/workspace-2.ae7c486db8796147075e4a56566aa819827dd6c4c8d18d64590317c3be625f17.tr.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.it.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.it.png
new file mode 100644
index 00000000..77c6154f
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.it.png differ
diff --git a/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.tr.png b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.tr.png
new file mode 100644
index 00000000..a9331bb4
Binary files /dev/null and b/translated_images/workspace-3.398ca4a5858132cce584db9df10c5a011cd9075eb182e647a77d5cac01771eea.tr.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.it.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.it.png
new file mode 100644
index 00000000..607ad3e3
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.it.png differ
diff --git a/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.tr.png b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.tr.png
new file mode 100644
index 00000000..b0250456
Binary files /dev/null and b/translated_images/workspace-4.bac87f6599c4df63e624fc2608990f965887bee551d9dedc71c687b43b986b6a.tr.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.it.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.it.png
new file mode 100644
index 00000000..8194032d
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.it.png differ
diff --git a/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.tr.png b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.tr.png
new file mode 100644
index 00000000..f5509694
Binary files /dev/null and b/translated_images/workspace-5.a6eb17e0a5e6420018b08bdaf3755ce977f96f1df3ea363d2476a9dce7e15adb.tr.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.it.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.it.png
new file mode 100644
index 00000000..605e52af
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.it.png differ
diff --git a/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.tr.png b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.tr.png
new file mode 100644
index 00000000..cdf5764c
Binary files /dev/null and b/translated_images/workspace-6.8dd81fe841797ee17f8f73916769576260b16c4e17e850d277a49db35fd74a15.tr.png differ
diff --git a/translations/br/README.md b/translations/br/README.md
index d82888db..74d76e29 100644
--- a/translations/br/README.md
+++ b/translations/br/README.md
@@ -1,33 +1,33 @@
# Ciência de Dados para Iniciantes - Um Currículo
-Azure Cloud Advocates na Microsoft têm o prazer de oferecer um currículo de 10 semanas e 20 lições sobre Ciência de Dados. Cada lição inclui questionários antes e depois da aula, instruções escritas para completar a lição, uma solução e uma tarefa. Nossa abordagem baseada em projetos permite que você aprenda enquanto constrói, uma maneira comprovada de fixar novas habilidades.
+Azure Cloud Advocates na Microsoft têm o prazer de oferecer um currículo de 10 semanas e 20 aulas sobre Ciência de Dados. Cada aula inclui questionários antes e depois da lição, instruções escritas para completar a lição, uma solução e uma tarefa. Nossa abordagem baseada em projetos permite que você aprenda enquanto constrói, uma maneira comprovada de fixar novas habilidades.
**Agradecimentos especiais aos nossos autores:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
**🙏 Agradecimentos especiais 🙏 aos nossos [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) autores, revisores e colaboradores de conteúdo,** incluindo Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
-|](./sketchnotes/00-Title.png)|
+||
|:---:|
| Ciência de Dados para Iniciantes - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
## Anúncio - Novo Currículo sobre IA Generativa foi lançado!
-Acabamos de lançar um currículo de 12 lições sobre IA generativa. Venha aprender coisas como:
+Acabamos de lançar um currículo de 12 aulas sobre IA generativa. Venha aprender coisas como:
- criação de prompts e engenharia de prompts
- geração de aplicativos de texto e imagem
- aplicativos de busca
-Como de costume, há uma lição, tarefas para completar, verificações de conhecimento e desafios.
+Como de costume, há uma aula, tarefas para completar, verificações de conhecimento e desafios.
Confira:
@@ -37,14 +37,14 @@ Confira:
Comece com os seguintes recursos:
-- [Página do Hub de Estudantes](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Nesta página, você encontrará recursos para iniciantes, pacotes para estudantes e até maneiras de obter um voucher de certificação gratuito. Esta é uma página que você deve marcar e verificar de tempos em tempos, pois trocamos o conteúdo pelo menos mensalmente.
+- [Página do Hub do Estudante](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Nesta página, você encontrará recursos para iniciantes, pacotes para estudantes e até maneiras de obter um voucher gratuito para certificação. Esta é uma página que você deve marcar e verificar de tempos em tempos, pois trocamos o conteúdo pelo menos mensalmente.
- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Junte-se a uma comunidade global de embaixadores estudantis, isso pode ser sua porta de entrada para a Microsoft.
# Começando
> **Professores**: incluímos [algumas sugestões](for-teachers.md) sobre como usar este currículo. Adoraríamos receber seu feedback [em nosso fórum de discussão](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
-> **[Estudantes](https://aka.ms/student-page)**: para usar este currículo por conta própria, faça um fork do repositório inteiro e complete os exercícios por conta própria, começando com um questionário pré-aula. Em seguida, leia a aula e complete o restante das atividades. Tente criar os projetos compreendendo as lições em vez de copiar o código da solução; no entanto, esse código está disponível nas pastas /solutions em cada lição orientada a projetos. Outra ideia seria formar um grupo de estudo com amigos e passar pelo conteúdo juntos. Para estudos adicionais, recomendamos [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+> **[Estudantes](https://aka.ms/student-page)**: para usar este currículo por conta própria, faça um fork do repositório inteiro e complete os exercícios por conta própria, começando com um questionário pré-aula. Depois, leia a aula e complete o restante das atividades. Tente criar os projetos compreendendo as lições em vez de copiar o código da solução; no entanto, esse código está disponível nas pastas /solutions em cada aula orientada a projetos. Outra ideia seria formar um grupo de estudo com amigos e passar pelo conteúdo juntos. Para estudos adicionais, recomendamos [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
## Conheça a Equipe
@@ -56,55 +56,55 @@ Comece com os seguintes recursos:
## Pedagogia
-Escolhemos dois princípios pedagógicos ao construir este currículo: garantir que ele seja baseado em projetos e que inclua questionários frequentes. Ao final desta série, os estudantes terão aprendido os princípios básicos da ciência de dados, incluindo conceitos éticos, preparação de dados, diferentes formas de trabalhar com dados, visualização de dados, análise de dados, casos de uso reais de ciência de dados e muito mais.
+Escolhemos dois princípios pedagógicos ao construir este currículo: garantir que ele seja baseado em projetos e que inclua questionários frequentes. Ao final desta série, os estudantes terão aprendido os princípios básicos da ciência de dados, incluindo conceitos éticos, preparação de dados, diferentes formas de trabalhar com dados, visualização de dados, análise de dados, casos de uso reais de ciência de dados e mais.
Além disso, um questionário de baixa pressão antes da aula define a intenção do estudante em aprender um tópico, enquanto um segundo questionário após a aula garante maior retenção. Este currículo foi projetado para ser flexível e divertido e pode ser realizado em sua totalidade ou em partes. Os projetos começam pequenos e se tornam cada vez mais complexos ao final do ciclo de 10 semanas.
> Encontre nosso [Código de Conduta](CODE_OF_CONDUCT.md), [Contribuição](CONTRIBUTING.md), [Diretrizes de Tradução](TRANSLATIONS.md). Agradecemos seu feedback construtivo!
-## Cada lição inclui:
+## Cada aula inclui:
- Sketchnote opcional
- Vídeo suplementar opcional
- Questionário de aquecimento antes da aula
-- Lição escrita
-- Para lições baseadas em projetos, guias passo a passo sobre como construir o projeto
+- Aula escrita
+- Para aulas baseadas em projetos, guias passo a passo sobre como construir o projeto
- Verificações de conhecimento
- Um desafio
- Leitura suplementar
- Tarefa
- Questionário pós-aula
-> **Uma nota sobre os questionários**: Todos os questionários estão contidos na pasta Quiz-App, totalizando 40 questionários com três perguntas cada. Eles estão vinculados dentro das lições, mas o aplicativo de questionários pode ser executado localmente ou implantado no Azure; siga as instruções na pasta `quiz-app`. Eles estão sendo gradualmente localizados.
+> **Uma nota sobre os questionários**: Todos os questionários estão contidos na pasta Quiz-App, totalizando 40 questionários de três perguntas cada. Eles estão vinculados dentro das aulas, mas o aplicativo de questionários pode ser executado localmente ou implantado no Azure; siga as instruções na pasta `quiz-app`. Eles estão sendo gradualmente localizados.
-## Lições
+## Aulas
|](./sketchnotes/00-Roadmap.png)|
|:---:|
| Ciência de Dados para Iniciantes: Roteiro - _Sketchnote por [@nitya](https://twitter.com/nitya)_ |
-| Número da Lição | Tópico | Agrupamento de Lições | Objetivos de Aprendizagem | Lição Vinculada | Autor |
+| Número da Aula | Tópico | Agrupamento de Aulas | Objetivos de Aprendizado | Aula Vinculada | Autor |
| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
-| 01 | Definindo Ciência de Dados | [Introdução](1-Introduction/README.md) | Aprenda os conceitos básicos por trás da ciência de dados e como ela está relacionada à inteligência artificial, aprendizado de máquina e big data. | [lição](1-Introduction/01-defining-data-science/README.md) [vídeo](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
-| 02 | Ética na Ciência de Dados | [Introdução](1-Introduction/README.md) | Conceitos, desafios e frameworks de ética em dados. | [lição](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
-| 03 | Definindo Dados | [Introdução](1-Introduction/README.md) | Como os dados são classificados e suas fontes comuns. | [lição](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
-| 04 | Introdução à Estatística e Probabilidade | [Introdução](1-Introduction/README.md) | As técnicas matemáticas de probabilidade e estatística para entender dados. | [lição](1-Introduction/04-stats-and-probability/README.md) [vídeo](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
-| 05 | Trabalhando com Dados Relacionais | [Trabalhando com Dados](2-Working-With-Data/README.md) | Introdução aos dados relacionais e os fundamentos de exploração e análise de dados relacionais com a Structured Query Language, também conhecida como SQL (pronunciado “sequel”). | [lição](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
-| 06 | Trabalhando com Dados NoSQL | [Trabalhando com Dados](2-Working-With-Data/README.md) | Introdução aos dados não relacionais, seus vários tipos e os fundamentos de exploração e análise de bancos de dados de documentos. | [lição](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
-| 07 | Trabalhando com Python | [Trabalhando com Dados](2-Working-With-Data/README.md) | Fundamentos de uso do Python para exploração de dados com bibliotecas como Pandas. É recomendável ter uma compreensão básica de programação em Python. | [lição](2-Working-With-Data/07-python/README.md) [vídeo](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
-| 08 | Preparação de Dados | [Trabalhando com Dados](2-Working-With-Data/README.md) | Tópicos sobre técnicas de dados para limpar e transformar os dados, lidando com desafios como dados ausentes, imprecisos ou incompletos. | [lição](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
-| 09 | Visualizando Quantidades | [Visualização de Dados](3-Data-Visualization/README.md) | Aprenda a usar Matplotlib para visualizar dados de pássaros 🦆 | [lição](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
-| 10 | Visualizando Distribuições de Dados | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizando observações e tendências dentro de um intervalo. | [lição](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
-| 11 | Visualizando Proporções | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizando porcentagens discretas e agrupadas. | [lição](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
-| 12 | Visualizando Relações | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizando conexões e correlações entre conjuntos de dados e suas variáveis. | [lição](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
-| 13 | Visualizações Significativas | [Visualização de Dados](3-Data-Visualization/README.md) | Técnicas e orientações para tornar suas visualizações valiosas para a resolução eficaz de problemas e obtenção de insights. | [lição](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
-| 14 | Introdução ao Ciclo de Vida da Ciência de Dados | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Introdução ao ciclo de vida da ciência de dados e sua primeira etapa de aquisição e extração de dados. | [lição](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
-| 15 | Análise | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase do ciclo de vida da ciência de dados foca em técnicas para analisar dados. | [lição](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
-| 16 | Comunicação | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase do ciclo de vida da ciência de dados foca em apresentar os insights dos dados de forma que facilite a compreensão pelos tomadores de decisão. | [lição](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
-| 17 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Esta série de lições introduz a ciência de dados na nuvem e seus benefícios. | [lição](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
-| 18 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Treinando modelos usando ferramentas de baixo código. | [lição](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
-| 19 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Implantando modelos com o Azure Machine Learning Studio. | [lição](5-Data-Science-In-Cloud/19-Azure/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
-| 20 | Ciência de Dados no Mundo Real | [No Mundo Real](6-Data-Science-In-Wild/README.md) | Projetos impulsionados por ciência de dados no mundo real. | [lição](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+| 01 | Definindo Ciência de Dados | [Introdução](1-Introduction/README.md) | Aprenda os conceitos básicos por trás da ciência de dados e como ela está relacionada à inteligência artificial, aprendizado de máquina e big data. | [aula](1-Introduction/01-defining-data-science/README.md) [vídeo](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Ética na Ciência de Dados | [Introdução](1-Introduction/README.md) | Conceitos, desafios e frameworks de ética em dados. | [aula](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definindo Dados | [Introdução](1-Introduction/README.md) | Como os dados são classificados e suas fontes comuns. | [aula](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introdução à Estatística e Probabilidade | [Introdução](1-Introduction/README.md) | As técnicas matemáticas de probabilidade e estatística para entender dados. | [aula](1-Introduction/04-stats-and-probability/README.md) [vídeo](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Trabalhando com Dados Relacionais | [Trabalhando com Dados](2-Working-With-Data/README.md) | Introdução aos dados relacionais e os fundamentos de explorar e analisar dados relacionais com a Linguagem de Consulta Estruturada, também conhecida como SQL (pronunciado “sequel”). | [aula](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Trabalhando com Dados NoSQL | [Trabalhando com Dados](2-Working-With-Data/README.md) | Introdução aos dados não relacionais, seus vários tipos e os fundamentos de explorar e analisar bancos de dados de documentos. | [aula](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Trabalhando com Python | [Trabalhando com Dados](2-Working-With-Data/README.md) | Fundamentos de usar Python para exploração de dados com bibliotecas como Pandas. É recomendável ter uma compreensão básica de programação em Python. | [aula](2-Working-With-Data/07-python/README.md) [vídeo](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Preparação de Dados | [Trabalhando com Dados](2-Working-With-Data/README.md) | Tópicos sobre técnicas de dados para limpar e transformar os dados, lidando com desafios como dados ausentes, imprecisos ou incompletos. | [aula](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualizando Quantidades | [Visualização de Dados](3-Data-Visualization/README.md) | Aprenda a usar o Matplotlib para visualizar dados de pássaros 🦆 | [aula](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualizando Distribuições de Dados | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizando observações e tendências dentro de um intervalo. | [aula](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualizando Proporções | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizando porcentagens discretas e agrupadas. | [aula](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualizando Relações | [Visualização de Dados](3-Data-Visualization/README.md) | Visualizando conexões e correlações entre conjuntos de dados e suas variáveis. | [aula](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Visualizações Significativas | [Visualização de Dados](3-Data-Visualization/README.md) | Técnicas e orientações para tornar suas visualizações valiosas para a resolução eficaz de problemas e obtenção de insights. | [aula](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introdução ao Ciclo de Vida da Ciência de Dados | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Introdução ao ciclo de vida da ciência de dados e sua primeira etapa de aquisição e extração de dados. | [aula](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Análise | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase do ciclo de vida da ciência de dados foca em técnicas para analisar dados. | [aula](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Comunicação | [Ciclo de Vida](4-Data-Science-Lifecycle/README.md) | Esta fase do ciclo de vida da ciência de dados foca em apresentar os insights dos dados de forma que facilite o entendimento pelos tomadores de decisão. | [aula](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Esta série de aulas apresenta a ciência de dados na nuvem e seus benefícios. | [aula](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 18 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Treinando modelos usando ferramentas de baixo código. | [aula](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 19 | Ciência de Dados na Nuvem | [Dados na Nuvem](5-Data-Science-In-Cloud/README.md) | Implantando modelos com o Azure Machine Learning Studio. | [aula](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 20 | Ciência de Dados no Mundo Real | [No Mundo Real](6-Data-Science-In-Wild/README.md) | Projetos orientados por ciência de dados no mundo real. | [aula](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
## GitHub Codespaces
@@ -114,23 +114,23 @@ Siga estas etapas para abrir este exemplo em um Codespace:
Para mais informações, confira a [documentação do GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
## VSCode Remote - Containers
-Siga estas etapas para abrir este repositório em um container usando sua máquina local e o VSCode com a extensão VS Code Remote - Containers:
+Siga estas etapas para abrir este repositório em um contêiner usando sua máquina local e o VSCode com a extensão VS Code Remote - Containers:
-1. Se esta for sua primeira vez usando um container de desenvolvimento, certifique-se de que seu sistema atende aos pré-requisitos (ex.: ter o Docker instalado) na [documentação de introdução](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+1. Se esta for sua primeira vez usando um contêiner de desenvolvimento, certifique-se de que seu sistema atenda aos pré-requisitos (ou seja, tenha o Docker instalado) na [documentação de introdução](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
-Para usar este repositório, você pode abrir o repositório em um volume isolado do Docker:
+Para usar este repositório, você pode abri-lo em um volume Docker isolado:
-**Nota**: Por trás dos panos, isso usará o comando Remote-Containers: **Clone Repository in Container Volume...** para clonar o código-fonte em um volume do Docker em vez do sistema de arquivos local. [Volumes](https://docs.docker.com/storage/volumes/) são o mecanismo preferido para persistir dados de containers.
+**Nota**: Nos bastidores, isso usará o comando Remote-Containers: **Clone Repository in Container Volume...** para clonar o código-fonte em um volume Docker em vez do sistema de arquivos local. [Volumes](https://docs.docker.com/storage/volumes/) são o mecanismo preferido para persistir dados de contêiner.
-Ou abrir uma versão clonada ou baixada localmente do repositório:
+Ou abra uma versão clonada ou baixada localmente do repositório:
-- Clone este repositório para seu sistema de arquivos local.
+- Clone este repositório para o seu sistema de arquivos local.
- Pressione F1 e selecione o comando **Remote-Containers: Open Folder in Container...**.
-- Selecione a cópia clonada desta pasta, aguarde o container iniciar e experimente.
+- Selecione a cópia clonada desta pasta, aguarde o contêiner iniciar e experimente.
## Acesso Offline
-Você pode executar esta documentação offline usando [Docsify](https://docsify.js.org/#/). Faça um fork deste repositório, [instale o Docsify](https://docsify.js.org/#/quickstart) em sua máquina local, e então, na pasta raiz deste repositório, digite `docsify serve`. O site será servido na porta 3000 do seu localhost: `localhost:3000`.
+Você pode executar esta documentação offline usando o [Docsify](https://docsify.js.org/#/). Faça um fork deste repositório, [instale o Docsify](https://docsify.js.org/#/quickstart) na sua máquina local e, na pasta raiz deste repositório, digite `docsify serve`. O site será servido na porta 3000 do seu localhost: `localhost:3000`.
> Nota: os notebooks não serão renderizados via Docsify, então, quando precisar executar um notebook, faça isso separadamente no VS Code executando um kernel Python.
@@ -142,22 +142,22 @@ Se você gostaria de traduzir todo ou parte do currículo, siga nosso guia de [T
Nossa equipe produz outros currículos! Confira:
-- [Generative AI for Beginners](https://aka.ms/genai-beginners)
-- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
-- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
-- [Generative AI with Java](https://aka.ms/genaijava)
-- [AI for Beginners](https://aka.ms/ai-beginners)
-- [Data Science for Beginners](https://aka.ms/datascience-beginners)
-- [ML for Beginners](https://aka.ms/ml-beginners)
-- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
-- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
-- [IoT for Beginners](https://aka.ms/iot-beginners)
-- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
-- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
-- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
-- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+- [IA Generativa para Iniciantes](https://aka.ms/genai-beginners)
+- [IA Generativa para Iniciantes .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [IA Generativa com JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [IA Generativa com Java](https://aka.ms/genaijava)
+- [IA para Iniciantes](https://aka.ms/ai-beginners)
+- [Ciência de Dados para Iniciantes](https://aka.ms/datascience-beginners)
+- [Aprendizado de Máquina para Iniciantes](https://aka.ms/ml-beginners)
+- [Cibersegurança para Iniciantes](https://github.com/microsoft/Security-101)
+- [Desenvolvimento Web para Iniciantes](https://aka.ms/webdev-beginners)
+- [IoT para Iniciantes](https://aka.ms/iot-beginners)
+- [Desenvolvimento XR para Iniciantes](https://github.com/microsoft/xr-development-for-beginners)
+- [Dominando o GitHub Copilot para Programação em Par](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Dominando o GitHub Copilot para Desenvolvedores C#/.NET](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Escolha Sua Própria Aventura com o Copilot](https://github.com/microsoft/CopilotAdventures)
---
**Aviso Legal**:
-Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automatizadas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte autoritativa. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações equivocadas decorrentes do uso desta tradução.
\ No newline at end of file
+Este documento foi traduzido utilizando o serviço de tradução por IA [Co-op Translator](https://github.com/Azure/co-op-translator). Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original em seu idioma nativo deve ser considerado a fonte oficial. Para informações críticas, recomenda-se a tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas decorrentes do uso desta tradução.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/01-defining-data-science/README.md b/translations/it/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..4e307140
--- /dev/null
+++ b/translations/it/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,78 @@
+
+## Tipi di Dati
+
+Come abbiamo già accennato, i dati sono ovunque. Basta catturarli nel modo giusto! È utile distinguere tra dati **strutturati** e **non strutturati**. I primi sono generalmente rappresentati in una forma ben organizzata, spesso come una tabella o un insieme di tabelle, mentre i secondi sono semplicemente una raccolta di file. A volte possiamo anche parlare di dati **semi-strutturati**, che hanno una sorta di struttura che può variare notevolmente.
+
+| Strutturati | Semi-strutturati | Non strutturati |
+| -------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------ | -------------------------------------- |
+| Elenco di persone con i loro numeri di telefono | Pagine di Wikipedia con collegamenti | Testo dell'Enciclopedia Britannica |
+| Temperatura in tutte le stanze di un edificio ogni minuto negli ultimi 20 anni | Raccolta di articoli scientifici in formato JSON con autori, data di pubblicazione e abstract | Condivisione di file con documenti aziendali |
+| Dati sull'età e il genere di tutte le persone che entrano nell'edificio | Pagine Internet | Flusso video grezzo da una telecamera di sorveglianza |
+
+## Dove trovare i Dati
+
+Esistono molte possibili fonti di dati, ed è impossibile elencarle tutte! Tuttavia, menzioniamo alcune delle fonti tipiche da cui è possibile ottenere dati:
+
+* **Strutturati**
+ - **Internet of Things** (IoT), inclusi dati provenienti da diversi sensori, come sensori di temperatura o pressione, che forniscono molti dati utili. Ad esempio, se un edificio per uffici è dotato di sensori IoT, possiamo controllare automaticamente il riscaldamento e l'illuminazione per ridurre i costi.
+ - **Sondaggi** che chiediamo agli utenti di completare dopo un acquisto o dopo aver visitato un sito web.
+ - **Analisi del comportamento** può, ad esempio, aiutarci a capire quanto profondamente un utente esplora un sito e qual è il motivo tipico per cui lo abbandona.
+* **Non strutturati**
+ - **Testi** possono essere una ricca fonte di informazioni, come un punteggio complessivo di **sentiment**, o l'estrazione di parole chiave e significati semantici.
+ - **Immagini** o **Video**. Un video da una telecamera di sorveglianza può essere utilizzato per stimare il traffico sulla strada e informare le persone su potenziali ingorghi.
+ - **Log** dei server web possono essere utilizzati per capire quali pagine del nostro sito sono visitate più frequentemente e per quanto tempo.
+* **Semi-strutturati**
+ - I grafi delle **reti sociali** possono essere ottime fonti di dati sulla personalità degli utenti e sull'efficacia potenziale nella diffusione di informazioni.
+ - Quando abbiamo una serie di fotografie da una festa, possiamo provare a estrarre dati sulla **dinamica di gruppo** costruendo un grafo delle persone che si fotografano insieme.
+
+Conoscendo le diverse possibili fonti di dati, puoi provare a pensare a diversi scenari in cui le tecniche di data science possono essere applicate per comprendere meglio la situazione e migliorare i processi aziendali.
+
+## Cosa puoi fare con i Dati
+
+Nella Data Science, ci concentriamo sui seguenti passaggi del percorso dei dati:
+
+## Digitalizzazione e Trasformazione Digitale
+
+Nell'ultimo decennio, molte aziende hanno iniziato a comprendere l'importanza dei dati per prendere decisioni aziendali. Per applicare i principi della data science alla gestione di un'azienda, è necessario innanzitutto raccogliere alcuni dati, ovvero tradurre i processi aziendali in forma digitale. Questo è noto come **digitalizzazione**. Applicare tecniche di data science a questi dati per guidare le decisioni può portare a significativi aumenti di produttività (o persino a un cambiamento radicale dell'azienda), chiamato **trasformazione digitale**.
+
+Consideriamo un esempio. Supponiamo di avere un corso di data science (come questo) che offriamo online agli studenti e vogliamo utilizzare la data science per migliorarlo. Come possiamo farlo?
+
+Possiamo iniziare chiedendoci "Cosa può essere digitalizzato?" Il modo più semplice sarebbe misurare il tempo che ogni studente impiega per completare ogni modulo e valutare le conoscenze acquisite somministrando un test a scelta multipla alla fine di ogni modulo. Calcolando la media del tempo di completamento tra tutti gli studenti, possiamo scoprire quali moduli causano maggiori difficoltà e lavorare per semplificarli.
+> Potresti obiettare che questo approccio non sia ideale, poiché i moduli possono avere lunghezze diverse. Probabilmente sarebbe più equo dividere il tempo per la lunghezza del modulo (in numero di caratteri) e confrontare invece quei valori.
+Quando iniziamo ad analizzare i risultati dei test a scelta multipla, possiamo cercare di determinare quali concetti gli studenti trovano difficili da comprendere e utilizzare queste informazioni per migliorare il contenuto. Per farlo, dobbiamo progettare i test in modo che ogni domanda sia collegata a un determinato concetto o blocco di conoscenza.
+
+Se vogliamo complicare ulteriormente l'analisi, possiamo tracciare il tempo impiegato per ogni modulo rispetto alla categoria di età degli studenti. Potremmo scoprire che per alcune categorie di età il completamento del modulo richiede un tempo eccessivamente lungo, oppure che gli studenti abbandonano prima di completarlo. Questo può aiutarci a fornire raccomandazioni di età per il modulo e a ridurre l'insoddisfazione derivante da aspettative errate.
+
+## 🚀 Sfida
+
+In questa sfida, cercheremo di individuare concetti rilevanti per il campo della Data Science analizzando dei testi. Prenderemo un articolo di Wikipedia sulla Data Science, scaricheremo e processeremo il testo, e poi costruiremo una word cloud come questa:
+
+
+
+Visita [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') per leggere il codice. Puoi anche eseguire il codice e vedere come effettua tutte le trasformazioni dei dati in tempo reale.
+
+> Se non sai come eseguire il codice in un Jupyter Notebook, dai un'occhiata a [questo articolo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Compiti
+
+* **Compito 1**: Modifica il codice sopra per individuare concetti correlati ai campi di **Big Data** e **Machine Learning**
+* **Compito 2**: [Rifletti sugli scenari della Data Science](assignment.md)
+
+## Crediti
+
+Questa lezione è stata scritta con ♥️ da [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/01-defining-data-science/assignment.md b/translations/it/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..a139d84d
--- /dev/null
+++ b/translations/it/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Compito: Scenari di Data Science
+
+In questo primo compito, ti chiediamo di riflettere su alcuni processi o problemi reali in diversi ambiti e su come puoi migliorarli utilizzando il processo di Data Science. Pensa ai seguenti punti:
+
+1. Quali dati puoi raccogliere?
+1. Come li raccoglieresti?
+1. Come conserveresti i dati? Quanto grandi potrebbero essere i dati?
+1. Quali informazioni potresti ricavare da questi dati? Quali decisioni potremmo prendere basandoci sui dati?
+
+Prova a pensare a 3 problemi/processi diversi e descrivi ciascuno dei punti sopra per ogni ambito.
+
+Ecco alcuni ambiti e problemi che possono aiutarti a iniziare a riflettere:
+
+1. Come puoi utilizzare i dati per migliorare il processo educativo per i bambini nelle scuole?
+1. Come puoi utilizzare i dati per controllare la vaccinazione durante una pandemia?
+1. Come puoi utilizzare i dati per assicurarti di essere produttivo al lavoro?
+
+## Istruzioni
+
+Compila la seguente tabella (sostituisci gli ambiti suggeriti con i tuoi, se necessario):
+
+| Ambito | Problema | Quali dati raccogliere | Come conservare i dati | Quali informazioni/decisioni possiamo trarre |
+|--------|----------|------------------------|------------------------|---------------------------------------------|
+| Educazione | | | | |
+| Vaccinazione | | | | |
+| Produttività | | | | |
+
+## Griglia di valutazione
+
+Esemplare | Adeguato | Da migliorare
+--- | --- | --- |
+Si è stati in grado di identificare fonti di dati ragionevoli, modi per conservare i dati e possibili decisioni/informazioni per tutti gli ambiti | Alcuni aspetti della soluzione non sono dettagliati, la conservazione dei dati non è discussa, almeno 2 ambiti sono descritti | Solo alcune parti della soluzione sono descritte, è considerato solo un ambito.
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/it/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..7a60a5b3
--- /dev/null
+++ b/translations/it/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Assegnazione: Scenari di Data Science
+
+In questo primo compito, ti chiediamo di riflettere su un processo o problema reale in diversi ambiti e su come puoi migliorarlo utilizzando il processo di Data Science. Pensa ai seguenti punti:
+
+1. Quali dati puoi raccogliere?
+1. Come li raccoglieresti?
+1. Come conserveresti i dati? Quanto grandi potrebbero essere i dati?
+1. Quali intuizioni potresti ottenere da questi dati? Quali decisioni potremmo prendere basandoci sui dati?
+
+Prova a pensare a 3 diversi problemi/processi e descrivi ciascuno dei punti sopra per ogni ambito.
+
+Ecco alcuni ambiti e problemi che possono aiutarti a iniziare a riflettere:
+
+1. Come puoi utilizzare i dati per migliorare il processo educativo per i bambini nelle scuole?
+1. Come puoi utilizzare i dati per controllare la vaccinazione durante una pandemia?
+1. Come puoi utilizzare i dati per assicurarti di essere produttivo al lavoro?
+
+## Istruzioni
+
+Compila la seguente tabella (sostituisci gli ambiti suggeriti con i tuoi, se necessario):
+
+| Ambito | Problema | Quali dati raccogliere | Come conservare i dati | Quali intuizioni/decisioni possiamo prendere |
+|--------|----------|------------------------|------------------------|---------------------------------------------|
+| Educazione | All'università, abbiamo tipicamente una bassa frequenza alle lezioni, e abbiamo l'ipotesi che gli studenti che frequentano le lezioni in media ottengano risultati migliori agli esami. Vogliamo stimolare la frequenza e testare l'ipotesi. | Possiamo monitorare la frequenza attraverso foto scattate dalla telecamera di sicurezza in aula, o tracciando gli indirizzi bluetooth/wifi dei telefoni cellulari degli studenti in aula. I dati degli esami sono già disponibili nel database dell'università. | Nel caso in cui tracciamo le immagini delle telecamere di sicurezza, dobbiamo conservare alcune (5-10) fotografie durante la lezione (dati non strutturati), e poi utilizzare l'AI per identificare i volti degli studenti (convertendo i dati in forma strutturata). | Possiamo calcolare i dati medi di frequenza per ogni studente e verificare se c'è una correlazione con i voti degli esami. Parleremo di più sulla correlazione nella sezione [probabilità e statistica](../../04-stats-and-probability/README.md). Per stimolare la frequenza degli studenti, possiamo pubblicare la classifica settimanale delle presenze sul portale della scuola e sorteggiare premi tra coloro con la frequenza più alta. |
+| Vaccinazione | | | | |
+| Produttività | | | | |
+
+> *Forniamo solo una risposta come esempio, in modo che tu possa avere un'idea di ciò che ci si aspetta in questo compito.*
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Si è stati in grado di identificare fonti di dati ragionevoli, modi per conservare i dati e possibili decisioni/intuizioni per tutti gli ambiti | Alcuni aspetti della soluzione non sono dettagliati, la conservazione dei dati non è discussa, almeno 2 ambiti sono descritti | Solo parti della soluzione basata sui dati sono descritte, è considerato solo un ambito.
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/02-ethics/README.md b/translations/it/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..8b7388a9
--- /dev/null
+++ b/translations/it/1-Introduction/02-ethics/README.md
@@ -0,0 +1,268 @@
+
+# Introduzione all'etica dei dati
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Etica della scienza dei dati - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Siamo tutti cittadini dei dati che vivono in un mondo dataficato.
+
+Le tendenze di mercato ci dicono che entro il 2022, 1 organizzazione su 3 di grandi dimensioni comprerà e venderà i propri dati attraverso [Marketplace e Exchange](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) online. Come **sviluppatori di app**, sarà più facile ed economico integrare intuizioni basate sui dati e automazione guidata da algoritmi nelle esperienze quotidiane degli utenti. Ma con l'AI che diventa sempre più pervasiva, sarà anche necessario comprendere i potenziali danni causati dalla [strumentalizzazione](https://www.youtube.com/watch?v=TQHs8SA1qpk) di tali algoritmi su larga scala.
+
+Le tendenze indicano inoltre che creeremo e consumeremo oltre [180 zettabyte](https://www.statista.com/statistics/871513/worldwide-data-created/) di dati entro il 2025. Come **data scientist**, questo ci offre livelli senza precedenti di accesso ai dati personali. Ciò significa che possiamo costruire profili comportamentali degli utenti e influenzare il processo decisionale in modi che creano un'[illusione di scelta libera](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), indirizzando potenzialmente gli utenti verso risultati che preferiamo. Questo solleva anche questioni più ampie sulla privacy dei dati e sulla protezione degli utenti.
+
+L'etica dei dati è ora _un binario necessario_ per la scienza e l'ingegneria dei dati, aiutandoci a minimizzare i potenziali danni e le conseguenze indesiderate delle nostre azioni guidate dai dati. Il [Gartner Hype Cycle per l'AI](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/) identifica tendenze rilevanti nell'etica digitale, nell'AI responsabile e nella governance dell'AI come fattori chiave per megatrend più ampi legati alla _democratizzazione_ e _industrializzazione_ dell'AI.
+
+
+
+In questa lezione, esploreremo l'affascinante area dell'etica dei dati - dai concetti fondamentali e le sfide, agli studi di caso e ai concetti applicati di AI come la governance - che aiutano a stabilire una cultura etica nei team e nelle organizzazioni che lavorano con dati e AI.
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Definizioni di base
+
+Iniziamo comprendendo la terminologia di base.
+
+La parola "etica" deriva dalla [parola greca "ethikos"](https://en.wikipedia.org/wiki/Ethics) (e dalla sua radice "ethos") che significa _carattere o natura morale_.
+
+**Etica** riguarda i valori condivisi e i principi morali che governano il nostro comportamento nella società. L'etica non si basa su leggi, ma su norme ampiamente accettate di ciò che è "giusto vs. sbagliato". Tuttavia, le considerazioni etiche possono influenzare le iniziative di governance aziendale e le regolamentazioni governative che creano maggiori incentivi per la conformità.
+
+**Etica dei dati** è un [nuovo ramo dell'etica](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) che "studia e valuta i problemi morali legati a _dati, algoritmi e pratiche corrispondenti_". Qui, **"dati"** si concentra sulle azioni relative alla generazione, registrazione, cura, elaborazione, diffusione, condivisione e utilizzo, **"algoritmi"** si concentra su AI, agenti, machine learning e robot, e **"pratiche"** si concentra su argomenti come innovazione responsabile, programmazione, hacking e codici etici.
+
+**Etica applicata** è l'[applicazione pratica delle considerazioni morali](https://en.wikipedia.org/wiki/Applied_ethics). È il processo di investigare attivamente le questioni etiche nel contesto di _azioni, prodotti e processi reali_, e di adottare misure correttive per garantire che rimangano allineati ai nostri valori etici definiti.
+
+**Cultura etica** riguarda [_operazionalizzare_ l'etica applicata](https://hbr.org/2019/05/how-to-design-an-ethical-organization) per garantire che i nostri principi e pratiche etiche siano adottati in modo coerente e scalabile in tutta l'organizzazione. Le culture etiche di successo definiscono principi etici a livello organizzativo, forniscono incentivi significativi per la conformità e rafforzano le norme etiche incoraggiando e amplificando i comportamenti desiderati a ogni livello dell'organizzazione.
+
+## Concetti di etica
+
+In questa sezione, discuteremo concetti come **valori condivisi** (principi) e **sfide etiche** (problemi) per l'etica dei dati - ed esploreremo **studi di caso** che ti aiutano a comprendere questi concetti in contesti reali.
+
+### 1. Principi etici
+
+Ogni strategia di etica dei dati inizia definendo _principi etici_ - i "valori condivisi" che descrivono comportamenti accettabili e guidano azioni conformi nei nostri progetti di dati e AI. Puoi definirli a livello individuale o di team. Tuttavia, la maggior parte delle grandi organizzazioni li delinea in una dichiarazione di missione o quadro di _AI etica_ definita a livello aziendale e applicata in modo coerente in tutti i team.
+
+**Esempio:** La dichiarazione di missione di [AI responsabile](https://www.microsoft.com/en-us/ai/responsible-ai) di Microsoft recita: _"Siamo impegnati nel progresso dell'AI guidato da principi etici che mettono le persone al primo posto"_ - identificando 6 principi etici nel quadro seguente:
+
+
+
+Esploriamo brevemente questi principi. _Trasparenza_ e _responsabilità_ sono valori fondamentali su cui si basano gli altri principi - quindi iniziamo da lì:
+
+* [**Responsabilità**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) rende i professionisti _responsabili_ delle loro operazioni di dati e AI e della conformità a questi principi etici.
+* [**Trasparenza**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) garantisce che le azioni di dati e AI siano _comprensibili_ (interpretabili) per gli utenti, spiegando il cosa e il perché delle decisioni.
+* [**Equità**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) - si concentra sull'assicurare che l'AI tratti _tutte le persone_ equamente, affrontando eventuali pregiudizi socio-tecnici sistemici o impliciti nei dati e nei sistemi.
+* [**Affidabilità e sicurezza**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - garantisce che l'AI si comporti _coerentemente_ con i valori definiti, minimizzando i potenziali danni o conseguenze indesiderate.
+* [**Privacy e sicurezza**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - riguarda la comprensione della provenienza dei dati e la fornitura di _privacy dei dati e protezioni correlate_ agli utenti.
+* [**Inclusività**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6) - riguarda la progettazione di soluzioni AI con intenzione, adattandole per soddisfare una _ampia gamma di esigenze e capacità umane_.
+
+> 🚨 Pensa a quale potrebbe essere la tua dichiarazione di missione per l'etica dei dati. Esplora i quadri di AI etica di altre organizzazioni - ecco esempi da [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) e [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/). Quali valori condivisi hanno in comune? Come si relazionano questi principi al prodotto AI o al settore in cui operano?
+
+### 2. Sfide etiche
+
+Una volta definiti i principi etici, il passo successivo è valutare le nostre azioni di dati e AI per vedere se sono allineate a quei valori condivisi. Pensa alle tue azioni in due categorie: _raccolta dati_ e _progettazione algoritmica_.
+
+Con la raccolta dati, le azioni probabilmente coinvolgeranno **dati personali** o informazioni personali identificabili (PII) per individui identificabili. Questo include [diversi elementi di dati non personali](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) che _collettivamente_ identificano un individuo. Le sfide etiche possono riguardare _privacy dei dati_, _proprietà dei dati_ e argomenti correlati come _consenso informato_ e _diritti di proprietà intellettuale_ per gli utenti.
+
+Con la progettazione algoritmica, le azioni coinvolgeranno la raccolta e la cura di **dataset**, quindi il loro utilizzo per addestrare e distribuire **modelli di dati** che prevedono risultati o automatizzano decisioni in contesti reali. Le sfide etiche possono derivare da _pregiudizi nei dataset_, problemi di _qualità dei dati_, _iniquità_ e _rappresentazione errata_ negli algoritmi - inclusi alcuni problemi di natura sistemica.
+
+In entrambi i casi, le sfide etiche evidenziano aree in cui le nostre azioni possono entrare in conflitto con i nostri valori condivisi. Per rilevare, mitigare, minimizzare o eliminare queste preoccupazioni, dobbiamo porci domande morali "sì/no" relative alle nostre azioni, quindi adottare misure correttive secondo necessità. Esaminiamo alcune sfide etiche e le domande morali che sollevano:
+
+#### 2.1 Proprietà dei dati
+
+La raccolta dati spesso coinvolge dati personali che possono identificare i soggetti dei dati. La [proprietà dei dati](https://permission.io/blog/data-ownership) riguarda il _controllo_ e i [_diritti degli utenti_](https://permission.io/blog/data-ownership) relativi alla creazione, elaborazione e diffusione dei dati.
+
+Le domande morali da porsi sono:
+ * Chi possiede i dati? (utente o organizzazione)
+ * Quali diritti hanno i soggetti dei dati? (es: accesso, cancellazione, portabilità)
+ * Quali diritti hanno le organizzazioni? (es: rettificare recensioni utente dannose)
+
+#### 2.2 Consenso informato
+
+Il [consenso informato](https://legaldictionary.net/informed-consent/) definisce l'atto degli utenti di accettare un'azione (come la raccolta dati) con una _piena comprensione_ dei fatti rilevanti, inclusi lo scopo, i rischi potenziali e le alternative.
+
+Le domande da esplorare qui sono:
+ * L'utente (soggetto dei dati) ha dato il permesso per la cattura e l'uso dei dati?
+ * L'utente ha compreso lo scopo per cui quei dati sono stati catturati?
+ * L'utente ha compreso i rischi potenziali derivanti dalla sua partecipazione?
+
+#### 2.3 Proprietà intellettuale
+
+La [proprietà intellettuale](https://en.wikipedia.org/wiki/Intellectual_property) si riferisce a creazioni intangibili derivanti dall'iniziativa umana, che possono _avere valore economico_ per individui o aziende.
+
+Le domande da esplorare qui sono:
+ * I dati raccolti avevano valore economico per un utente o un'azienda?
+ * L'**utente** ha proprietà intellettuale qui?
+ * L'**organizzazione** ha proprietà intellettuale qui?
+ * Se esistono questi diritti, come li stiamo proteggendo?
+
+#### 2.4 Privacy dei dati
+
+La [privacy dei dati](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) o privacy delle informazioni si riferisce alla preservazione della privacy degli utenti e alla protezione dell'identità degli utenti rispetto alle informazioni personali identificabili.
+
+Le domande da esplorare qui sono:
+ * I dati (personali) degli utenti sono protetti contro hack e fughe di informazioni?
+ * I dati degli utenti sono accessibili solo a utenti e contesti autorizzati?
+ * L'anonimato degli utenti è preservato quando i dati vengono condivisi o diffusi?
+ * È possibile de-identificare un utente da dataset anonimizzati?
+
+#### 2.5 Diritto all'oblio
+
+Il [Diritto all'oblio](https://en.wikipedia.org/wiki/Right_to_be_forgotten) o [Diritto alla cancellazione](https://www.gdpreu.org/right-to-be-forgotten/) offre una protezione aggiuntiva dei dati personali agli utenti. In particolare, dà agli utenti il diritto di richiedere la cancellazione o la rimozione dei dati personali dalle ricerche su Internet e da altre posizioni, _in circostanze specifiche_ - permettendo loro un nuovo inizio online senza che le azioni passate vengano loro imputate.
+
+Le domande da esplorare qui sono:
+ * Il sistema consente ai soggetti dei dati di richiedere la cancellazione?
+ * Il ritiro del consenso dell'utente dovrebbe innescare una cancellazione automatica?
+ * I dati sono stati raccolti senza consenso o con mezzi illeciti?
+ * Siamo conformi alle normative governative sulla privacy dei dati?
+
+#### 2.6 Pregiudizi nei dataset
+
+Il pregiudizio nei dataset o [pregiudizio nella raccolta](http://researcharticles.com/index.php/bias-in-data-collection-in-research/) riguarda la selezione di un sottoinsieme _non rappresentativo_ di dati per lo sviluppo degli algoritmi, creando potenziale iniquità nei risultati per gruppi diversi. Tipi di pregiudizio includono pregiudizio di selezione o campionamento, pregiudizio volontario e pregiudizio strumentale.
+
+Le domande da esplorare qui sono:
+ * Abbiamo reclutato un set rappresentativo di soggetti dei dati?
+ * Abbiamo testato il nostro dataset raccolto o curato per vari pregiudizi?
+ * Possiamo mitigare o rimuovere eventuali pregiudizi scoperti?
+
+#### 2.7 Qualità dei dati
+
+La [qualità dei dati](https://lakefs.io/data-quality-testing/) esamina la validità del dataset curato utilizzato per sviluppare i nostri algoritmi, verificando se le caratteristiche e i record soddisfano i requisiti per il livello di accuratezza e coerenza necessario per il nostro scopo AI.
+
+Le domande da esplorare qui sono:
+ * Abbiamo catturato caratteristiche valide per il nostro caso d'uso?
+ * I dati sono stati catturati in modo coerente tra diverse fonti di dati?
+ * Il dataset è completo per condizioni o scenari diversi?
+ * Le informazioni catturate riflettono accuratamente la realtà?
+
+#### 2.8 Equità degli algoritmi
+[Algorithm Fairness](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f) verifica se la progettazione dell'algoritmo discrimina sistematicamente contro specifici sottogruppi di soggetti, portando a [potenziali danni](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) nella _distribuzione_ (dove le risorse vengono negate o trattenute per quel gruppo) e nella _qualità del servizio_ (dove l'IA non è altrettanto accurata per alcuni sottogruppi rispetto ad altri).
+
+Domande da esplorare qui sono:
+ * Abbiamo valutato l'accuratezza del modello per sottogruppi e condizioni diverse?
+ * Abbiamo esaminato il sistema per potenziali danni (ad esempio, stereotipi)?
+ * Possiamo rivedere i dati o riaddestrare i modelli per mitigare i danni identificati?
+
+Esplora risorse come [AI Fairness checklists](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) per saperne di più.
+
+#### 2.9 Falsificazione
+
+[Data Misrepresentation](https://www.sciencedirect.com/topics/computer-science/misrepresentation) riguarda il chiedersi se stiamo comunicando intuizioni da dati riportati onestamente in modo ingannevole per supportare una narrativa desiderata.
+
+Domande da esplorare qui sono:
+ * Stiamo riportando dati incompleti o inaccurati?
+ * Stiamo visualizzando i dati in modo da indurre conclusioni fuorvianti?
+ * Stiamo usando tecniche statistiche selettive per manipolare i risultati?
+ * Ci sono spiegazioni alternative che potrebbero offrire una conclusione diversa?
+
+#### 2.10 Libera Scelta
+L'[Illusione della Libera Scelta](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice) si verifica quando le "architetture di scelta" del sistema utilizzano algoritmi decisionali per spingere le persone verso un risultato preferito, pur dando l'impressione di offrire opzioni e controllo. Questi [dark patterns](https://www.darkpatterns.org/) possono causare danni sociali ed economici agli utenti. Poiché le decisioni degli utenti influenzano i profili comportamentali, queste azioni possono potenzialmente guidare scelte future che amplificano o estendono l'impatto di tali danni.
+
+Domande da esplorare qui sono:
+ * L'utente ha compreso le implicazioni di quella scelta?
+ * L'utente era consapevole delle (alternative) opzioni e dei pro e contro di ciascuna?
+ * L'utente può annullare una scelta automatizzata o influenzata in seguito?
+
+### 3. Studi di Caso
+
+Per mettere queste sfide etiche in contesti reali, è utile esaminare studi di caso che evidenziano i potenziali danni e le conseguenze per individui e società, quando tali violazioni etiche vengono trascurate.
+
+Ecco alcuni esempi:
+
+| Sfida Etica | Studio di Caso |
+|--- |--- |
+| **Consenso Informato** | 1972 - [Tuskegee Syphilis Study](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Gli uomini afroamericani che parteciparono allo studio furono promessi cure mediche gratuite _ma ingannati_ dai ricercatori che non informarono i soggetti della loro diagnosi o della disponibilità di trattamenti. Molti soggetti morirono e partner o figli furono colpiti; lo studio durò 40 anni. |
+| **Privacy dei Dati** | 2007 - Il [Netflix data prize](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) fornì ai ricercatori _10M di valutazioni di film anonimizzate da 50K clienti_ per migliorare gli algoritmi di raccomandazione. Tuttavia, i ricercatori furono in grado di correlare i dati anonimizzati con dati identificabili personalmente in _dataset esterni_ (ad esempio, commenti su IMDb), "de-anonimizzando" efficacemente alcuni abbonati Netflix.|
+| **Bias nella Raccolta** | 2013 - La città di Boston [sviluppò Street Bump](https://www.boston.gov/transportation/street-bump), un'app che permetteva ai cittadini di segnalare buche, fornendo alla città dati migliori sulle strade per trovare e risolvere i problemi. Tuttavia, [le persone nei gruppi a basso reddito avevano meno accesso a auto e telefoni](https://hbr.org/2013/04/the-hidden-biases-in-big-data), rendendo invisibili i loro problemi stradali in questa app. Gli sviluppatori lavorarono con accademici per affrontare _problemi di accesso equo e divari digitali_ per garantire equità. |
+| **Equità Algoritmica** | 2018 - Lo studio MIT [Gender Shades Study](http://gendershades.org/overview.html) valutò l'accuratezza dei prodotti di classificazione di genere basati su IA, evidenziando lacune nell'accuratezza per donne e persone di colore. Una [Apple Card del 2019](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) sembrava offrire meno credito alle donne rispetto agli uomini. Entrambi illustrarono problemi di bias algoritmico che portano a danni socio-economici.|
+| **Falsificazione dei Dati** | 2020 - Il [Dipartimento della Salute della Georgia pubblicò grafici COVID-19](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) che sembravano fuorviare i cittadini sulle tendenze dei casi confermati con un ordinamento non cronologico sull'asse x. Questo illustra la falsificazione attraverso trucchi di visualizzazione. |
+| **Illusione della libera scelta** | 2020 - L'app educativa [ABCmouse pagò $10M per risolvere una denuncia FTC](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) in cui i genitori erano intrappolati nel pagamento di abbonamenti che non potevano cancellare. Questo illustra i dark patterns nelle architetture di scelta, dove gli utenti erano spinti verso scelte potenzialmente dannose. |
+| **Privacy dei Dati e Diritti degli Utenti** | 2021 - La [violazione dei dati di Facebook](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) espose dati di 530M di utenti, portando a un accordo di $5B con la FTC. Tuttavia, si rifiutò di notificare agli utenti la violazione, violando i diritti degli utenti sulla trasparenza e l'accesso ai dati. |
+
+Vuoi esplorare più studi di caso? Dai un'occhiata a queste risorse:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - dilemmi etici in diversi settori.
+* [Corso di Etica della Data Science](https://www.coursera.org/learn/data-science-ethics#syllabus) - studi di caso fondamentali esplorati.
+* [Dove le cose sono andate male](https://deon.drivendata.org/examples/) - checklist Deon con esempi.
+
+
+> 🚨 Pensa agli studi di caso che hai visto: hai vissuto o sei stato colpito da una sfida etica simile nella tua vita? Riesci a pensare ad almeno un altro studio di caso che illustri una delle sfide etiche discusse in questa sezione?
+
+## Etica Applicata
+
+Abbiamo parlato di concetti etici, sfide e studi di caso in contesti reali. Ma come iniziamo ad _applicare_ principi e pratiche etiche nei nostri progetti? E come _operazionalizziamo_ queste pratiche per una migliore governance? Esploriamo alcune soluzioni reali:
+
+### 1. Codici Professionali
+
+I Codici Professionali offrono un'opzione per le organizzazioni per "incentivare" i membri a supportare i loro principi etici e la dichiarazione di missione. I codici sono _linee guida morali_ per il comportamento professionale, aiutando i dipendenti o i membri a prendere decisioni che si allineano ai principi dell'organizzazione. Sono efficaci solo quanto la conformità volontaria dei membri; tuttavia, molte organizzazioni offrono ricompense e penalità aggiuntive per motivare la conformità.
+
+Esempi includono:
+
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Codice Etico
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Codice di Condotta (creato nel 2013)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (dal 1993)
+
+> 🚨 Appartieni a un'organizzazione professionale di ingegneria o data science? Esplora il loro sito per vedere se definiscono un codice etico professionale. Cosa dice sui loro principi etici? Come stanno "incentivando" i membri a seguire il codice?
+
+### 2. Checklist Etiche
+
+Mentre i codici professionali definiscono il comportamento _etico richiesto_ dai professionisti, [hanno limitazioni note](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) nell'applicazione, in particolare nei progetti su larga scala. Invece, molti esperti di data science [sostengono le checklist](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md), che possono **collegare i principi alle pratiche** in modi più deterministici e attuabili.
+
+Le checklist convertono le domande in compiti "sì/no" che possono essere operazionalizzati, permettendo loro di essere tracciati come parte dei flussi di lavoro standard di rilascio del prodotto.
+
+Esempi includono:
+ * [Deon](https://deon.drivendata.org/) - una checklist etica generale per i dati creata da [raccomandazioni del settore](https://deon.drivendata.org/#checklist-citations) con uno strumento da riga di comando per una facile integrazione.
+ * [Privacy Audit Checklist](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - fornisce linee guida generali per le pratiche di gestione delle informazioni da prospettive legali e sociali.
+ * [AI Fairness Checklist](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - creata da professionisti dell'IA per supportare l'adozione e l'integrazione di controlli di equità nei cicli di sviluppo dell'IA.
+ * [22 domande per l'etica nei dati e nell'IA](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - quadro più aperto, strutturato per l'esplorazione iniziale delle questioni etiche nel design, implementazione e contesti organizzativi.
+
+### 3. Regolamenti Etici
+
+L'etica riguarda la definizione di valori condivisi e il fare la cosa giusta _volontariamente_. **Conformità** riguarda il _rispetto della legge_ se e dove definita. **Governance** copre in generale tutti i modi in cui le organizzazioni operano per applicare principi etici e rispettare le leggi stabilite.
+
+Oggi, la governance assume due forme all'interno delle organizzazioni. In primo luogo, riguarda la definizione di principi di **IA etica** e l'istituzione di pratiche per operazionalizzare l'adozione in tutti i progetti legati all'IA nell'organizzazione. In secondo luogo, riguarda il rispetto di tutti i regolamenti governativi di **protezione dei dati** per le regioni in cui opera.
+
+Esempi di regolamenti sulla protezione e privacy dei dati:
+
+ * `1974`, [US Privacy Act](https://www.justice.gov/opcl/privacy-act-1974) - regola la raccolta, l'uso e la divulgazione di informazioni personali da parte del _governo federale_.
+ * `1996`, [US Health Insurance Portability & Accountability Act (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - protegge i dati sanitari personali.
+ * `1998`, [US Children's Online Privacy Protection Act (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - protegge la privacy dei dati dei bambini sotto i 13 anni.
+ * `2018`, [General Data Protection Regulation (GDPR)](https://gdpr-info.eu/) - fornisce diritti agli utenti, protezione dei dati e privacy.
+ * `2018`, [California Consumer Privacy Act (CCPA)](https://www.oag.ca.gov/privacy/ccpa) - offre ai consumatori più _diritti_ sui loro dati personali.
+ * `2021`, La [Legge sulla Protezione delle Informazioni Personali della Cina](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) appena approvata, crea una delle regolamentazioni sulla privacy online più forti al mondo.
+
+> 🚨 L'Unione Europea ha definito il GDPR (Regolamento Generale sulla Protezione dei Dati), che rimane una delle regolamentazioni sulla privacy dei dati più influenti oggi. Sapevi che definisce anche [8 diritti degli utenti](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) per proteggere la privacy digitale e i dati personali dei cittadini? Scopri quali sono e perché sono importanti.
+
+### 4. Cultura Etica
+
+Nota che rimane un divario intangibile tra _conformità_ (fare abbastanza per soddisfare "la lettera della legge") e affrontare [problemi sistemici](https://www.coursera.org/learn/data-science-ethics/home/week/4) (come ossificazione, asimmetria informativa e ingiustizia distributiva) che possono accelerare la strumentalizzazione dell'IA.
+
+Quest'ultimo richiede [approcci collaborativi per definire culture etiche](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) che costruiscano connessioni emotive e valori condivisi coerenti _tra le organizzazioni_ nel settore. Questo richiede più [culture etiche formalizzate](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) nelle organizzazioni - permettendo a _chiunque_ di [tirare la corda Andon](https://en.wikipedia.org/wiki/Andon_(manufacturing)) (per sollevare preoccupazioni etiche presto nel processo) e rendendo _le valutazioni etiche_ (ad esempio, nell'assunzione) un criterio centrale per la formazione del team nei progetti di IA.
+
+---
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Revisione e Studio Autonomo
+
+Corsi e libri aiutano a comprendere i concetti etici fondamentali e le sfide, mentre studi di caso e strumenti aiutano con le pratiche etiche applicate in contesti reali. Ecco alcune risorse per iniziare.
+
+* [Machine Learning For Beginners](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - lezione sulla Equità, da Microsoft.
+* [Principi di AI Responsabile](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - percorso di apprendimento gratuito di Microsoft Learn.
+* [Etica e Data Science](https://resources.oreilly.com/examples/0636920203964) - EBook di O'Reilly (M. Loukides, H. Mason et. al)
+* [Etica della Data Science](https://www.coursera.org/learn/data-science-ethics#syllabus) - corso online dell'Università del Michigan.
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - studi di caso dell'Università del Texas.
+
+# Compito
+
+[Scrivi uno studio di caso sull'etica dei dati](assignment.md)
+
+---
+
+**Disclaimer (Avvertenza)**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di tenere presente che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali malintesi o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/02-ethics/assignment.md b/translations/it/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..1566a3d5
--- /dev/null
+++ b/translations/it/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Scrivi un Caso di Studio sull'Etica dei Dati
+
+## Istruzioni
+
+Hai imparato a conoscere diverse [Sfide Etiche dei Dati](README.md#2-ethics-challenges) e hai visto alcuni esempi di [Casi di Studio](README.md#3-case-studies) che riflettono sfide etiche dei dati in contesti reali.
+
+In questo compito, scriverai il tuo caso di studio che riflette una sfida etica dei dati basata sulla tua esperienza personale o su un contesto reale rilevante che conosci. Segui semplicemente questi passaggi:
+
+1. `Scegli una Sfida Etica dei Dati`. Guarda [gli esempi della lezione](README.md#2-ethics-challenges) o esplora esempi online come [la Checklist di Deon](https://deon.drivendata.org/examples/) per trovare ispirazione.
+
+2. `Descrivi un Esempio Reale`. Pensa a una situazione di cui hai sentito parlare (notizie, studio di ricerca, ecc.) o che hai vissuto (comunità locale), in cui si è verificata questa specifica sfida. Rifletti sulle domande etiche legate alla sfida e discuti i potenziali danni o conseguenze indesiderate che emergono a causa di questo problema. Punti extra: pensa a soluzioni o processi che potrebbero essere applicati per eliminare o mitigare l'impatto negativo di questa sfida.
+
+3. `Fornisci un elenco di Risorse Correlate`. Condividi una o più risorse (link a un articolo, un post personale su un blog o un'immagine, un documento di ricerca online, ecc.) per dimostrare che si tratta di un evento reale. Punti extra: condividi risorse che mostrano anche i potenziali danni e conseguenze dell'incidente, o che evidenziano passi positivi intrapresi per prevenirne la ricorrenza.
+
+
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Una o più sfide etiche dei dati sono identificate.
Il caso di studio descrive chiaramente un incidente reale che riflette quella sfida e evidenzia le conseguenze indesiderate o i danni che ha causato.
C'è almeno una risorsa collegata per dimostrare che è accaduto. | Una sfida etica dei dati è identificata.
Almeno un danno o conseguenza rilevante è discusso brevemente.
Tuttavia, la discussione è limitata o manca la prova dell'occorrenza reale. | Una sfida etica è identificata.
Tuttavia, la descrizione o le risorse non riflettono adeguatamente la sfida o non dimostrano che si tratta di un evento reale. |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/03-defining-data/README.md b/translations/it/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..5ee8d25f
--- /dev/null
+++ b/translations/it/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,85 @@
+
+# Definizione dei Dati
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Definizione dei Dati - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+I dati sono fatti, informazioni, osservazioni e misurazioni utilizzati per fare scoperte e supportare decisioni informate. Un punto dati è una singola unità di dati all'interno di un dataset, che è una raccolta di punti dati. I dataset possono avere formati e strutture diversi e di solito dipendono dalla loro origine, ovvero da dove provengono i dati. Ad esempio, i guadagni mensili di un'azienda potrebbero essere in un foglio di calcolo, mentre i dati sulla frequenza cardiaca oraria di uno smartwatch potrebbero essere in formato [JSON](https://stackoverflow.com/a/383699). È comune per i data scientist lavorare con diversi tipi di dati all'interno di un dataset.
+
+Questa lezione si concentra sull'identificazione e la classificazione dei dati in base alle loro caratteristiche e alle loro fonti.
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+
+## Come vengono descritti i dati
+
+### Dati grezzi
+I dati grezzi sono dati che provengono dalla loro fonte nel loro stato iniziale e non sono stati analizzati o organizzati. Per comprendere cosa sta accadendo in un dataset, è necessario organizzarli in un formato comprensibile sia per gli esseri umani che per la tecnologia che potrebbe essere utilizzata per analizzarli ulteriormente. La struttura di un dataset descrive come è organizzato e può essere classificata come strutturata, non strutturata e semi-strutturata. Questi tipi di struttura variano a seconda della fonte, ma rientrano comunque in queste tre categorie.
+
+### Dati quantitativi
+I dati quantitativi sono osservazioni numeriche all'interno di un dataset e possono essere generalmente analizzati, misurati e utilizzati matematicamente. Alcuni esempi di dati quantitativi sono: la popolazione di un paese, l'altezza di una persona o i guadagni trimestrali di un'azienda. Con un'analisi aggiuntiva, i dati quantitativi potrebbero essere utilizzati per scoprire tendenze stagionali dell'Indice di Qualità dell'Aria (AQI) o stimare la probabilità di traffico nelle ore di punta in una tipica giornata lavorativa.
+
+### Dati qualitativi
+I dati qualitativi, noti anche come dati categoriali, sono dati che non possono essere misurati oggettivamente come le osservazioni dei dati quantitativi. Generalmente si tratta di vari formati di dati soggettivi che catturano la qualità di qualcosa, come un prodotto o un processo. A volte, i dati qualitativi sono numerici ma non vengono tipicamente utilizzati matematicamente, come numeri di telefono o timestamp. Alcuni esempi di dati qualitativi sono: commenti video, marca e modello di un'auto o il colore preferito dei tuoi amici più stretti. I dati qualitativi potrebbero essere utilizzati per comprendere quali prodotti piacciono di più ai consumatori o per identificare parole chiave popolari nei curriculum delle domande di lavoro.
+
+### Dati strutturati
+I dati strutturati sono dati organizzati in righe e colonne, dove ogni riga avrà lo stesso set di colonne. Le colonne rappresentano un valore di un particolare tipo e saranno identificate con un nome che descrive cosa rappresenta il valore, mentre le righe contengono i valori effettivi. Le colonne spesso hanno un insieme specifico di regole o restrizioni sui valori, per garantire che i valori rappresentino accuratamente la colonna. Ad esempio, immagina un foglio di calcolo di clienti in cui ogni riga deve avere un numero di telefono e i numeri di telefono non contengono caratteri alfabetici. Potrebbero esserci regole applicate alla colonna del numero di telefono per assicurarsi che non sia mai vuota e contenga solo numeri.
+
+Un vantaggio dei dati strutturati è che possono essere organizzati in modo tale da essere correlati ad altri dati strutturati. Tuttavia, poiché i dati sono progettati per essere organizzati in un modo specifico, apportare modifiche alla loro struttura generale può richiedere molto sforzo. Ad esempio, aggiungere una colonna email al foglio di calcolo dei clienti che non può essere vuota significa che dovrai capire come aggiungere questi valori alle righe esistenti di clienti nel dataset.
+
+Esempi di dati strutturati: fogli di calcolo, database relazionali, numeri di telefono, estratti conto bancari.
+
+### Dati non strutturati
+I dati non strutturati generalmente non possono essere categorizzati in righe o colonne e non contengono un formato o un insieme di regole da seguire. Poiché i dati non strutturati hanno meno restrizioni sulla loro struttura, è più facile aggiungere nuove informazioni rispetto a un dataset strutturato. Se un sensore che cattura dati sulla pressione barometrica ogni 2 minuti ha ricevuto un aggiornamento che ora gli consente di misurare e registrare la temperatura, non è necessario modificare i dati esistenti se sono non strutturati. Tuttavia, ciò potrebbe rendere più lungo l'analisi o l'indagine su questo tipo di dati. Ad esempio, uno scienziato che vuole trovare la temperatura media del mese precedente dai dati del sensore, ma scopre che il sensore ha registrato una "e" in alcuni dei suoi dati per indicare che era rotto invece di un numero tipico, il che significa che i dati sono incompleti.
+
+Esempi di dati non strutturati: file di testo, messaggi di testo, file video.
+
+### Dati semi-strutturati
+I dati semi-strutturati hanno caratteristiche che li rendono una combinazione di dati strutturati e non strutturati. Generalmente non si conformano a un formato di righe e colonne, ma sono organizzati in un modo considerato strutturato e possono seguire un formato fisso o un insieme di regole. La struttura varia tra le fonti, da una gerarchia ben definita a qualcosa di più flessibile che consente una facile integrazione di nuove informazioni. I metadati sono indicatori che aiutano a decidere come i dati sono organizzati e archiviati e avranno vari nomi, in base al tipo di dati. Alcuni nomi comuni per i metadati sono tag, elementi, entità e attributi. Ad esempio, un tipico messaggio email avrà un oggetto, un corpo e un insieme di destinatari e può essere organizzato in base a chi o quando è stato inviato.
+
+Esempi di dati semi-strutturati: HTML, file CSV, JavaScript Object Notation (JSON).
+
+## Fonti di dati
+
+Una fonte di dati è il luogo iniziale in cui i dati sono stati generati o dove "vivono" e varia in base a come e quando sono stati raccolti. I dati generati dai suoi utenti sono noti come dati primari, mentre i dati secondari provengono da una fonte che ha raccolto dati per uso generale. Ad esempio, un gruppo di scienziati che raccoglie osservazioni in una foresta pluviale sarebbe considerato primario e, se decidono di condividerlo con altri scienziati, sarebbe considerato secondario per coloro che lo utilizzano.
+
+I database sono una fonte comune e si basano su un sistema di gestione dei database per ospitare e mantenere i dati, dove gli utenti utilizzano comandi chiamati query per esplorare i dati. I file come fonti di dati possono essere file audio, immagini e video, così come fogli di calcolo come Excel. Le fonti internet sono un luogo comune per ospitare dati, dove si possono trovare sia database che file. Le interfacce di programmazione delle applicazioni, note anche come API, consentono ai programmatori di creare modi per condividere dati con utenti esterni tramite internet, mentre il processo di web scraping estrae dati da una pagina web. Le [lezioni su Lavorare con i Dati](../../../../../../../../../2-Working-With-Data) si concentrano su come utilizzare varie fonti di dati.
+
+## Conclusione
+
+In questa lezione abbiamo imparato:
+
+- Cosa sono i dati
+- Come vengono descritti i dati
+- Come i dati vengono classificati e categorizzati
+- Dove si possono trovare i dati
+
+## 🚀 Sfida
+
+Kaggle è un'ottima fonte di dataset aperti. Usa lo [strumento di ricerca dei dataset](https://www.kaggle.com/datasets) per trovare alcuni dataset interessanti e classifica 3-5 dataset con questi criteri:
+
+- I dati sono quantitativi o qualitativi?
+- I dati sono strutturati, non strutturati o semi-strutturati?
+
+## [Quiz Post-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Revisione e Studio Autonomo
+
+- Questa unità di Microsoft Learn, intitolata [Classifica i tuoi Dati](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data) offre una spiegazione dettagliata dei dati strutturati, semi-strutturati e non strutturati.
+
+## Compito
+
+[Classificazione dei Dataset](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/03-defining-data/assignment.md b/translations/it/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..a1f080d9
--- /dev/null
+++ b/translations/it/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Classificazione dei Dataset
+
+## Istruzioni
+
+Segui le indicazioni di questo compito per identificare e classificare i dati con uno di ciascuno dei seguenti tipi di dati:
+
+**Tipi di Struttura**: Strutturato, Semi-Strutturato o Non Strutturato
+
+**Tipi di Valore**: Qualitativo o Quantitativo
+
+**Tipi di Fonte**: Primaria o Secondaria
+
+1. Un'azienda è stata acquisita e ora ha una società madre. I data scientist hanno ricevuto un foglio di calcolo con i numeri di telefono dei clienti dalla società madre.
+
+Tipo di Struttura:
+
+Tipo di Valore:
+
+Tipo di Fonte:
+
+---
+
+2. Uno smartwatch ha raccolto dati sulla frequenza cardiaca del suo utilizzatore, e i dati grezzi sono in formato JSON.
+
+Tipo di Struttura:
+
+Tipo di Valore:
+
+Tipo di Fonte:
+
+---
+
+3. Un sondaggio sul morale dei dipendenti in un luogo di lavoro è archiviato in un file CSV.
+
+Tipo di Struttura:
+
+Tipo di Valore:
+
+Tipo di Fonte:
+
+---
+
+4. Gli astrofisici stanno accedendo a un database di galassie raccolto da una sonda spaziale. I dati contengono il numero di pianeti presenti in ciascuna galassia.
+
+Tipo di Struttura:
+
+Tipo di Valore:
+
+Tipo di Fonte:
+
+---
+
+5. Un'app di finanza personale utilizza API per connettersi ai conti finanziari di un utente al fine di calcolare il suo patrimonio netto. L'utente può vedere tutte le sue transazioni in un formato a righe e colonne, simile a un foglio di calcolo.
+
+Tipo di Struttura:
+
+Tipo di Valore:
+
+Tipo di Fonte:
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Identifica correttamente tutti i tipi di struttura, valore e fonte |Identifica correttamente 3 tipi di struttura, valore e fonte|Identifica correttamente 2 o meno tipi di struttura, valore e fonte|
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/04-stats-and-probability/README.md b/translations/it/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..e5fad935
--- /dev/null
+++ b/translations/it/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# Una Breve Introduzione alla Statistica e alla Probabilità
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| Statistica e Probabilità - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+La Statistica e la Teoria della Probabilità sono due aree della Matematica strettamente correlate e altamente rilevanti per la Scienza dei Dati. È possibile lavorare con i dati senza una conoscenza approfondita della matematica, ma è comunque meglio conoscere almeno alcuni concetti di base. Qui presenteremo una breve introduzione che ti aiuterà a iniziare.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Probabilità e Variabili Casuali
+
+**Probabilità** è un numero compreso tra 0 e 1 che esprime quanto è probabile che si verifichi un **evento**. È definita come il numero di risultati positivi (che portano all'evento), diviso per il numero totale di risultati, supponendo che tutti i risultati siano ugualmente probabili. Ad esempio, quando lanciamo un dado, la probabilità di ottenere un numero pari è 3/6 = 0,5.
+
+Quando parliamo di eventi, utilizziamo **variabili casuali**. Ad esempio, la variabile casuale che rappresenta il numero ottenuto lanciando un dado può assumere valori da 1 a 6. L'insieme dei numeri da 1 a 6 è chiamato **spazio campionario**. Possiamo parlare della probabilità che una variabile casuale assuma un certo valore, ad esempio P(X=3)=1/6.
+
+La variabile casuale nell'esempio precedente è chiamata **discreta**, perché ha uno spazio campionario numerabile, ovvero ci sono valori separati che possono essere enumerati. Ci sono casi in cui lo spazio campionario è un intervallo di numeri reali o l'intero insieme dei numeri reali. Tali variabili sono chiamate **continue**. Un buon esempio è l'orario di arrivo di un autobus.
+
+## Distribuzione di Probabilità
+
+Nel caso di variabili casuali discrete, è facile descrivere la probabilità di ciascun evento tramite una funzione P(X). Per ogni valore *s* dello spazio campionario *S*, essa fornirà un numero compreso tra 0 e 1, tale che la somma di tutti i valori di P(X=s) per tutti gli eventi sarà pari a 1.
+
+La distribuzione discreta più nota è la **distribuzione uniforme**, in cui c'è uno spazio campionario di N elementi, con probabilità uguale di 1/N per ciascuno di essi.
+
+È più difficile descrivere la distribuzione di probabilità di una variabile continua, con valori estratti da un intervallo [a,b] o dall'intero insieme dei numeri reali ℝ. Consideriamo il caso dell'orario di arrivo di un autobus. In realtà, per ogni orario esatto di arrivo *t*, la probabilità che un autobus arrivi esattamente a quell'ora è 0!
+
+> Ora sai che eventi con probabilità 0 accadono, e molto spesso! Almeno ogni volta che arriva l'autobus!
+
+Possiamo solo parlare della probabilità che una variabile rientri in un determinato intervallo di valori, ad esempio P(t1≤X2). In questo caso, la distribuzione di probabilità è descritta da una **funzione di densità di probabilità** p(x), tale che
+
+![P(t_1\le X1, x2, ..., xn. Possiamo definire il valore **medio** (o **media aritmetica**) della sequenza nel modo tradizionale come (x1+x2+xn)/n. Aumentando la dimensione del campione (ovvero prendendo il limite con n→∞), otterremo la media (chiamata anche **aspettativa**) della distribuzione. Denoteremo l'aspettativa con **E**(x).
+
+> Si può dimostrare che per qualsiasi distribuzione discreta con valori {x1, x2, ..., xN} e probabilità corrispondenti p1, p2, ..., pN, l'aspettativa sarà E(X)=x1p1+x2p2+...+xNpN.
+
+Per identificare quanto i valori siano dispersi, possiamo calcolare la varianza σ2 = ∑(xi - μ)2/n, dove μ è la media della sequenza. Il valore σ è chiamato **deviazione standard**, e σ2 è chiamato **varianza**.
+
+## Moda, Mediana e Quartili
+
+A volte, la media non rappresenta adeguatamente il valore "tipico" dei dati. Ad esempio, quando ci sono alcuni valori estremi completamente fuori scala, questi possono influenzare la media. Un'altra buona indicazione è la **mediana**, un valore tale che metà dei punti dati sono inferiori a esso e l'altra metà - superiori.
+
+Per aiutarci a comprendere la distribuzione dei dati, è utile parlare di **quartili**:
+
+* Il primo quartile, o Q1, è un valore tale che il 25% dei dati è inferiore a esso
+* Il terzo quartile, o Q3, è un valore tale che il 75% dei dati è inferiore a esso
+
+Graficamente possiamo rappresentare la relazione tra mediana e quartili in un diagramma chiamato **box plot**:
+
+
+
+Qui calcoliamo anche l'**intervallo interquartile** IQR=Q3-Q1 e i cosiddetti **outlier** - valori che si trovano al di fuori dei limiti [Q1-1.5*IQR,Q3+1.5*IQR].
+
+Per una distribuzione finita che contiene un piccolo numero di valori possibili, un buon valore "tipico" è quello che appare più frequentemente, chiamato **moda**. È spesso applicato ai dati categoriali, come i colori. Consideriamo una situazione in cui abbiamo due gruppi di persone: alcuni che preferiscono fortemente il rosso e altri che preferiscono il blu. Se codifichiamo i colori con numeri, il valore medio per il colore preferito sarebbe da qualche parte nello spettro arancione-verde, che non indica la reale preferenza di nessuno dei due gruppi. Tuttavia, la moda sarebbe uno dei colori, o entrambi i colori, se il numero di persone che li preferisce è uguale (in questo caso chiamiamo il campione **multimodale**).
+
+## Dati del Mondo Reale
+
+Quando analizziamo dati reali, spesso non sono variabili casuali in senso stretto, nel senso che non eseguiamo esperimenti con risultati sconosciuti. Ad esempio, consideriamo una squadra di giocatori di baseball e i loro dati fisici, come altezza, peso ed età. Questi numeri non sono esattamente casuali, ma possiamo comunque applicare gli stessi concetti matematici. Ad esempio, una sequenza di pesi delle persone può essere considerata una sequenza di valori estratti da una variabile casuale. Di seguito è riportata la sequenza dei pesi di veri giocatori di baseball della [Major League Baseball](http://mlb.mlb.com/index.jsp), tratta da [questo dataset](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) (per comodità, sono mostrati solo i primi 20 valori):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Nota**: Per vedere un esempio di lavoro con questo dataset, dai un'occhiata al [notebook allegato](notebook.ipynb). Ci sono anche una serie di sfide in questa lezione, e puoi completarle aggiungendo del codice a quel notebook. Se non sei sicuro di come operare sui dati, non preoccuparti: torneremo a lavorare con i dati usando Python in un secondo momento. Se non sai come eseguire codice in Jupyter Notebook, dai un'occhiata a [questo articolo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+Ecco il box plot che mostra media, mediana e quartili per i nostri dati:
+
+
+
+Poiché i nostri dati contengono informazioni sui diversi **ruoli** dei giocatori, possiamo anche creare un box plot per ruolo - questo ci permetterà di capire come i valori dei parametri differiscono tra i ruoli. Questa volta considereremo l'altezza:
+
+
+
+Questo diagramma suggerisce che, in media, l'altezza dei primi basemen è maggiore dell'altezza dei secondi basemen. Più avanti in questa lezione impareremo come possiamo testare questa ipotesi in modo più formale e come dimostrare che i nostri dati sono statisticamente significativi per mostrarlo.
+
+> Quando lavoriamo con dati reali, assumiamo che tutti i punti dati siano campioni estratti da una distribuzione di probabilità. Questa assunzione ci consente di applicare tecniche di machine learning e costruire modelli predittivi funzionanti.
+
+Per vedere quale sia la distribuzione dei nostri dati, possiamo tracciare un grafico chiamato **istogramma**. L'asse X conterrà un numero di diversi intervalli di peso (i cosiddetti **bin**), e l'asse verticale mostrerà il numero di volte in cui il campione della variabile casuale è rientrato in un determinato intervallo.
+
+
+
+Da questo istogramma puoi vedere che tutti i valori sono centrati attorno a un certo peso medio, e più ci si allontana da quel peso, meno pesi di quel valore vengono incontrati. Ovvero, è molto improbabile che il peso di un giocatore di baseball sia molto diverso dal peso medio. La varianza dei pesi mostra la misura in cui i pesi tendono a differire dalla media.
+
+> Se prendiamo i pesi di altre persone, non appartenenti alla lega di baseball, la distribuzione sarà probabilmente diversa. Tuttavia, la forma della distribuzione sarà la stessa, ma media e varianza cambieranno. Quindi, se addestriamo il nostro modello sui giocatori di baseball, è probabile che dia risultati errati quando applicato agli studenti di un'università, perché la distribuzione sottostante è diversa.
+
+## Distribuzione Normale
+
+La distribuzione dei pesi che abbiamo visto sopra è molto tipica, e molte misurazioni del mondo reale seguono lo stesso tipo di distribuzione, ma con media e varianza diverse. Questa distribuzione è chiamata **distribuzione normale**, e gioca un ruolo molto importante nella statistica.
+
+Utilizzare la distribuzione normale è un modo corretto per generare pesi casuali di potenziali giocatori di baseball. Una volta che conosciamo il peso medio `mean` e la deviazione standard `std`, possiamo generare 1000 campioni di peso nel seguente modo:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Se tracciamo l'istogramma dei campioni generati, vedremo un'immagine molto simile a quella mostrata sopra. E se aumentiamo il numero di campioni e il numero di bin, possiamo generare un'immagine di una distribuzione normale più vicina all'ideale:
+
+
+
+*Distribuzione Normale con media=0 e dev.std=1*
+
+## Intervalli di Confidenza
+
+Quando parliamo dei pesi dei giocatori di baseball, assumiamo che ci sia una certa **variabile casuale W** che corrisponde alla distribuzione di probabilità ideale dei pesi di tutti i giocatori di baseball (la cosiddetta **popolazione**). La nostra sequenza di pesi corrisponde a un sottoinsieme di tutti i giocatori di baseball che chiamiamo **campione**. Una domanda interessante è: possiamo conoscere i parametri della distribuzione di W, ovvero la media e la varianza della popolazione?
+
+La risposta più semplice sarebbe calcolare la media e la varianza del nostro campione. Tuttavia, potrebbe accadere che il nostro campione casuale non rappresenti accuratamente l'intera popolazione. Pertanto, ha senso parlare di **intervallo di confidenza**.
+> **Intervallo di confidenza** è la stima della vera media della popolazione data dal nostro campione, che è accurata con una certa probabilità (o **livello di confidenza**).
+Supponiamo di avere un campione X1, ..., Xn dalla nostra distribuzione. Ogni volta che estraiamo un campione dalla distribuzione, otteniamo un valore medio μ diverso. Pertanto, μ può essere considerato una variabile casuale. Un **intervallo di confidenza** con confidenza p è una coppia di valori (Lp,Rp), tale che **P**(Lp≤μ≤Rp) = p, ovvero la probabilità che il valore medio misurato rientri nell'intervallo è uguale a p.
+
+Va oltre la nostra breve introduzione discutere in dettaglio come vengono calcolati questi intervalli di confidenza. Alcuni dettagli aggiuntivi possono essere trovati [su Wikipedia](https://en.wikipedia.org/wiki/Confidence_interval). In breve, definiamo la distribuzione della media campionaria calcolata rispetto alla vera media della popolazione, che è chiamata **distribuzione dello studente**.
+
+> **Fatto interessante**: La distribuzione dello studente prende il nome dal matematico William Sealy Gosset, che pubblicò il suo lavoro sotto lo pseudonimo "Student". Lavorava nella birreria Guinness e, secondo una delle versioni, il suo datore di lavoro non voleva che il pubblico sapesse che stavano usando test statistici per determinare la qualità delle materie prime.
+
+Se vogliamo stimare la media μ della nostra popolazione con confidenza p, dobbiamo prendere il *(1-p)/2-esimo percentile* di una distribuzione dello studente A, che può essere ottenuto da tabelle o calcolato utilizzando alcune funzioni integrate di software statistico (es. Python, R, ecc.). Quindi l'intervallo per μ sarebbe dato da X±A*D/√n, dove X è la media ottenuta dal campione, D è la deviazione standard.
+
+> **Nota**: Omettiamo anche la discussione di un concetto importante chiamato [gradi di libertà](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)), che è rilevante in relazione alla distribuzione dello studente. Puoi consultare libri più completi sulla statistica per comprendere meglio questo concetto.
+
+Un esempio di calcolo dell'intervallo di confidenza per pesi e altezze è fornito nei [notebook allegati](notebook.ipynb).
+
+| p | Media del peso |
+|-----|-----------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Nota che maggiore è la probabilità di confidenza, più ampio è l'intervallo di confidenza.
+
+## Test delle ipotesi
+
+Nel nostro dataset di giocatori di baseball, ci sono diversi ruoli che possono essere riassunti di seguito (consulta il [notebook allegato](notebook.ipynb) per vedere come questa tabella può essere calcolata):
+
+| Ruolo | Altezza | Peso | Conteggio |
+|------|--------|--------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+Possiamo notare che l'altezza media dei primi basemen è maggiore di quella dei second basemen. Pertanto, potremmo essere tentati di concludere che **i primi basemen sono più alti dei second basemen**.
+
+> Questa affermazione è chiamata **un'ipotesi**, perché non sappiamo se il fatto sia effettivamente vero o meno.
+
+Tuttavia, non è sempre ovvio se possiamo trarre questa conclusione. Dalla discussione precedente sappiamo che ogni media ha un intervallo di confidenza associato, e quindi questa differenza potrebbe essere solo un errore statistico. Abbiamo bisogno di un modo più formale per testare la nostra ipotesi.
+
+Calcoliamo gli intervalli di confidenza separatamente per le altezze dei primi e second basemen:
+
+| Confidenza | Primi Basemen | Second Basemen |
+|------------|---------------|----------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Possiamo vedere che, con qualsiasi livello di confidenza, gli intervalli non si sovrappongono. Questo prova la nostra ipotesi che i primi basemen sono più alti dei second basemen.
+
+Più formalmente, il problema che stiamo risolvendo è vedere se **due distribuzioni di probabilità sono uguali**, o almeno hanno gli stessi parametri. A seconda della distribuzione, dobbiamo utilizzare test diversi per questo. Se sappiamo che le nostre distribuzioni sono normali, possiamo applicare il **[test t di Student](https://en.wikipedia.org/wiki/Student%27s_t-test)**.
+
+Nel test t di Student, calcoliamo il cosiddetto **valore t**, che indica la differenza tra le medie, tenendo conto della varianza. È dimostrato che il valore t segue la **distribuzione dello studente**, che ci consente di ottenere il valore soglia per un dato livello di confidenza **p** (questo può essere calcolato o consultato nelle tabelle numeriche). Confrontiamo quindi il valore t con questa soglia per approvare o respingere l'ipotesi.
+
+In Python, possiamo utilizzare il pacchetto **SciPy**, che include la funzione `ttest_ind` (oltre a molte altre utili funzioni statistiche!). Questa calcola il valore t per noi e fa anche il reverse lookup del valore di confidenza p, così possiamo semplicemente guardare la confidenza per trarre la conclusione.
+
+Ad esempio, il nostro confronto tra le altezze dei primi e second basemen ci dà i seguenti risultati:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+Nel nostro caso, il valore p è molto basso, il che significa che ci sono forti evidenze a supporto del fatto che i primi basemen siano più alti.
+
+Ci sono anche altri tipi di ipotesi che potremmo voler testare, ad esempio:
+* Dimostrare che un dato campione segue una distribuzione. Nel nostro caso abbiamo assunto che le altezze siano distribuite normalmente, ma ciò richiede una verifica statistica formale.
+* Dimostrare che il valore medio di un campione corrisponde a un valore predefinito.
+* Confrontare le medie di un numero di campioni (es. qual è la differenza nei livelli di felicità tra diversi gruppi di età).
+
+## Legge dei grandi numeri e teorema centrale del limite
+
+Uno dei motivi per cui la distribuzione normale è così importante è il cosiddetto **teorema centrale del limite**. Supponiamo di avere un grande campione di N valori indipendenti X1, ..., XN, campionati da qualsiasi distribuzione con media μ e varianza σ2. Quindi, per N sufficientemente grande (in altre parole, quando N→∞), la media ΣiXi sarà distribuita normalmente, con media μ e varianza σ2/N.
+
+> Un altro modo di interpretare il teorema centrale del limite è dire che, indipendentemente dalla distribuzione, quando calcoli la media di una somma di valori di variabili casuali ottieni una distribuzione normale.
+
+Dal teorema centrale del limite segue anche che, quando N→∞, la probabilità che la media del campione sia uguale a μ diventa 1. Questo è noto come **la legge dei grandi numeri**.
+
+## Covarianza e correlazione
+
+Una delle cose che la Data Science fa è trovare relazioni tra i dati. Diciamo che due sequenze **correlano** quando mostrano un comportamento simile nello stesso momento, cioè aumentano/diminuiscono simultaneamente, oppure una sequenza aumenta quando l'altra diminuisce e viceversa. In altre parole, sembra esserci una relazione tra le due sequenze.
+
+> La correlazione non indica necessariamente una relazione causale tra due sequenze; a volte entrambe le variabili possono dipendere da una causa esterna, oppure può essere puramente casuale che le due sequenze siano correlate. Tuttavia, una forte correlazione matematica è una buona indicazione che due variabili siano in qualche modo connesse.
+
+Matematicamente, il concetto principale che mostra la relazione tra due variabili casuali è la **covarianza**, che viene calcolata così: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Calcoliamo la deviazione di entrambe le variabili dai loro valori medi e poi il prodotto di queste deviazioni. Se entrambe le variabili deviano insieme, il prodotto sarà sempre un valore positivo, che si sommerà a una covarianza positiva. Se entrambe le variabili deviano in modo non sincronizzato (cioè una scende sotto la media quando l'altra sale sopra la media), otterremo sempre numeri negativi, che si sommeranno a una covarianza negativa. Se le deviazioni non sono dipendenti, si sommeranno a circa zero.
+
+Il valore assoluto della covarianza non ci dice molto su quanto sia grande la correlazione, perché dipende dalla magnitudine dei valori effettivi. Per normalizzarlo, possiamo dividere la covarianza per la deviazione standard di entrambe le variabili, ottenendo la **correlazione**. La cosa buona è che la correlazione è sempre nell'intervallo [-1,1], dove 1 indica una forte correlazione positiva tra i valori, -1 una forte correlazione negativa e 0 nessuna correlazione (variabili indipendenti).
+
+**Esempio**: Possiamo calcolare la correlazione tra peso e altezza dei giocatori di baseball dal dataset sopra menzionato:
+```python
+print(np.corrcoef(weights,heights))
+```
+Come risultato, otteniamo una **matrice di correlazione** come questa:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> La matrice di correlazione C può essere calcolata per qualsiasi numero di sequenze di input S1, ..., Sn. Il valore di Cij è la correlazione tra Si e Sj, e gli elementi diagonali sono sempre 1 (che è anche l'autocorrelazione di Si).
+
+Nel nostro caso, il valore 0.53 indica che c'è una certa correlazione tra il peso e l'altezza di una persona. Possiamo anche creare un grafico a dispersione di un valore rispetto all'altro per vedere la relazione visivamente:
+
+
+
+> Altri esempi di correlazione e covarianza possono essere trovati nel [notebook allegato](notebook.ipynb).
+
+## Conclusione
+
+In questa sezione, abbiamo imparato:
+
+* le proprietà statistiche di base dei dati, come media, varianza, moda e quartili
+* le diverse distribuzioni delle variabili casuali, inclusa la distribuzione normale
+* come trovare la correlazione tra diverse proprietà
+* come utilizzare un apparato matematico e statistico per dimostrare alcune ipotesi
+* come calcolare intervalli di confidenza per variabili casuali dato un campione di dati
+
+Sebbene questa non sia una lista esaustiva di argomenti che esistono nella probabilità e statistica, dovrebbe essere sufficiente per darti un buon inizio in questo corso.
+
+## 🚀 Sfida
+
+Usa il codice di esempio nel notebook per testare altre ipotesi:
+1. I primi basemen sono più anziani dei second basemen
+2. I primi basemen sono più alti dei third basemen
+3. Gli shortstops sono più alti dei second basemen
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## Revisione e studio autonomo
+
+La probabilità e la statistica sono argomenti così ampi che meritano un corso a parte. Se sei interessato ad approfondire la teoria, potresti continuare a leggere alcuni dei seguenti libri:
+
+1. [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) della New York University ha ottimi appunti di lezione [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (disponibili online)
+1. [Peter e Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[codice di esempio in R](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[codice di esempio in R](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Compito
+
+[Small Diabetes Study](assignment.md)
+
+## Crediti
+
+Questa lezione è stata scritta con ♥️ da [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/04-stats-and-probability/assignment.md b/translations/it/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..e01b677c
--- /dev/null
+++ b/translations/it/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Piccolo Studio sul Diabete
+
+In questo compito, lavoreremo con un piccolo dataset di pazienti diabetici preso da [qui](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html).
+
+| | ETÀ | SESSO | BMI | PA | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-----|-------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## Istruzioni
+
+* Apri il [notebook dell'esercizio](assignment.ipynb) in un ambiente jupyter notebook
+* Completa tutti i compiti elencati nel notebook, in particolare:
+ * [ ] Calcola i valori medi e la varianza per tutti i valori
+ * [ ] Traccia i boxplot per BMI, PA e Y in base al genere
+ * [ ] Qual è la distribuzione delle variabili Età, Sesso, BMI e Y?
+ * [ ] Verifica la correlazione tra le diverse variabili e la progressione della malattia (Y)
+ * [ ] Verifica l'ipotesi che il grado di progressione del diabete sia diverso tra uomini e donne
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Tutti i compiti richiesti sono completati, illustrati graficamente e spiegati | La maggior parte dei compiti è completata, ma mancano spiegazioni o conclusioni dai grafici e/o dai valori ottenuti | Solo i compiti di base come il calcolo di media/varianza e i grafici di base sono completati, senza trarre conclusioni dai dati
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/1-Introduction/README.md b/translations/it/1-Introduction/README.md
new file mode 100644
index 00000000..76f52d22
--- /dev/null
+++ b/translations/it/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Introduzione alla Scienza dei Dati
+
+
+> Foto di Stephen Dawson su Unsplash
+
+In queste lezioni, scoprirai come viene definita la Scienza dei Dati e imparerai le considerazioni etiche che un data scientist deve tenere a mente. Inoltre, apprenderai come vengono definiti i dati e acquisirai alcune nozioni di statistica e probabilità, i domini accademici fondamentali della Scienza dei Dati.
+
+### Argomenti
+
+1. [Definizione della Scienza dei Dati](01-defining-data-science/README.md)
+2. [Etica nella Scienza dei Dati](02-ethics/README.md)
+3. [Definizione dei Dati](03-defining-data/README.md)
+4. [Introduzione alla Statistica e alla Probabilità](04-stats-and-probability/README.md)
+
+### Crediti
+
+Queste lezioni sono state scritte con ❤️ da [Nitya Narasimhan](https://twitter.com/nitya) e [Dmitry Soshnikov](https://twitter.com/shwars).
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/05-relational-databases/README.md b/translations/it/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..2515c5b6
--- /dev/null
+++ b/translations/it/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Lavorare con i dati: Database relazionali
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Lavorare con i dati: Database relazionali - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Probabilmente hai utilizzato un foglio di calcolo in passato per archiviare informazioni. Avevi un insieme di righe e colonne, dove le righe contenevano le informazioni (o dati) e le colonne descrivevano le informazioni (a volte chiamate metadati). Un database relazionale si basa su questo principio fondamentale di colonne e righe in tabelle, permettendoti di distribuire le informazioni su più tabelle. Questo ti consente di lavorare con dati più complessi, evitare duplicazioni e avere flessibilità nel modo in cui esplori i dati. Esploriamo i concetti di un database relazionale.
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Tutto inizia con le tabelle
+
+Un database relazionale ha al suo centro le tabelle. Proprio come con il foglio di calcolo, una tabella è una raccolta di colonne e righe. La riga contiene i dati o le informazioni con cui vogliamo lavorare, come il nome di una città o la quantità di pioggia. Le colonne descrivono i dati che archiviano.
+
+Iniziamo la nostra esplorazione creando una tabella per archiviare informazioni sulle città. Potremmo iniziare con il loro nome e il paese. Potresti archiviare queste informazioni in una tabella come segue:
+
+| Città | Paese |
+| -------- | ------------- |
+| Tokyo | Giappone |
+| Atlanta | Stati Uniti |
+| Auckland | Nuova Zelanda |
+
+Nota che i nomi delle colonne **città**, **paese** e **popolazione** descrivono i dati archiviati, e ogni riga contiene informazioni su una città.
+
+## I limiti di un approccio con una singola tabella
+
+Probabilmente la tabella sopra ti sembra abbastanza familiare. Iniziamo ad aggiungere alcuni dati aggiuntivi al nostro nascente database: la pioggia annuale (in millimetri). Ci concentreremo sugli anni 2018, 2019 e 2020. Se dovessimo aggiungerla per Tokyo, potrebbe apparire così:
+
+| Città | Paese | Anno | Quantità |
+| ------ | ------- | ---- | -------- |
+| Tokyo | Giappone| 2020 | 1690 |
+| Tokyo | Giappone| 2019 | 1874 |
+| Tokyo | Giappone| 2018 | 1445 |
+
+Cosa noti nella nostra tabella? Potresti notare che stiamo duplicando il nome e il paese della città più e più volte. Questo potrebbe occupare molto spazio di archiviazione ed è in gran parte inutile avere più copie. Dopotutto, Tokyo ha solo un nome che ci interessa.
+
+OK, proviamo qualcosa di diverso. Aggiungiamo nuove colonne per ogni anno:
+
+| Città | Paese | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokyo | Giappone | 1445 | 1874 | 1690 |
+| Atlanta | Stati Uniti | 1779 | 1111 | 1683 |
+| Auckland | Nuova Zelanda | 1386 | 942 | 1176 |
+
+Sebbene questo eviti la duplicazione delle righe, introduce un paio di altre sfide. Dovremmo modificare la struttura della nostra tabella ogni volta che c'è un nuovo anno. Inoltre, man mano che i nostri dati crescono, avere gli anni come colonne renderà più complicato recuperare e calcolare i valori.
+
+Ecco perché abbiamo bisogno di più tabelle e relazioni. Suddividendo i nostri dati possiamo evitare duplicazioni e avere maggiore flessibilità nel modo in cui lavoriamo con i dati.
+
+## I concetti di relazioni
+
+Torniamo ai nostri dati e determiniamo come vogliamo suddividerli. Sappiamo che vogliamo archiviare il nome e il paese delle nostre città, quindi probabilmente questo funzionerà meglio in una tabella.
+
+| Città | Paese |
+| -------- | ------------- |
+| Tokyo | Giappone |
+| Atlanta | Stati Uniti |
+| Auckland | Nuova Zelanda |
+
+Ma prima di creare la prossima tabella, dobbiamo capire come fare riferimento a ciascuna città. Abbiamo bisogno di una forma di identificatore, ID o (in termini tecnici di database) una chiave primaria. Una chiave primaria è un valore utilizzato per identificare una specifica riga in una tabella. Sebbene questo possa essere basato su un valore stesso (potremmo usare il nome della città, ad esempio), dovrebbe quasi sempre essere un numero o un altro identificatore. Non vogliamo che l'id cambi mai, poiché romperebbe la relazione. Nella maggior parte dei casi, la chiave primaria o id sarà un numero generato automaticamente.
+
+> ✅ La chiave primaria è spesso abbreviata come PK
+
+### città
+
+| city_id | Città | Paese |
+| ------- | -------- | ------------- |
+| 1 | Tokyo | Giappone |
+| 2 | Atlanta | Stati Uniti |
+| 3 | Auckland | Nuova Zelanda |
+
+> ✅ Noterai che usiamo i termini "id" e "chiave primaria" in modo intercambiabile durante questa lezione. I concetti qui si applicano ai DataFrame, che esplorerai più avanti. I DataFrame non usano la terminologia di "chiave primaria", tuttavia noterai che si comportano in modo molto simile.
+
+Con la nostra tabella delle città creata, archiviamo la pioggia. Piuttosto che duplicare le informazioni complete sulla città, possiamo usare l'id. Dovremmo anche garantire che la tabella appena creata abbia una colonna *id*, poiché tutte le tabelle dovrebbero avere un id o una chiave primaria.
+
+### pioggia
+
+| rainfall_id | city_id | Anno | Quantità |
+| ----------- | ------- | ---- | -------- |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Nota la colonna **city_id** all'interno della tabella **pioggia** appena creata. Questa colonna contiene valori che fanno riferimento agli ID nella tabella **città**. In termini tecnici di dati relazionali, questo è chiamato **chiave esterna**; è una chiave primaria di un'altra tabella. Puoi pensarlo semplicemente come un riferimento o un puntatore. **city_id** 1 fa riferimento a Tokyo.
+
+> [!NOTE] La chiave esterna è spesso abbreviata come FK
+
+## Recuperare i dati
+
+Con i nostri dati separati in due tabelle, potresti chiederti come recuperarli. Se stiamo usando un database relazionale come MySQL, SQL Server o Oracle, possiamo usare un linguaggio chiamato Structured Query Language o SQL. SQL (a volte pronunciato sequel) è un linguaggio standard utilizzato per recuperare e modificare i dati in un database relazionale.
+
+Per recuperare i dati si usa il comando `SELECT`. Fondamentalmente, **selezioni** le colonne che vuoi vedere **da** la tabella in cui sono contenute. Se volessi visualizzare solo i nomi delle città, potresti usare il seguente:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT` è dove elenchi le colonne, e `FROM` è dove elenchi le tabelle.
+
+> [NOTE] La sintassi SQL non distingue tra maiuscole e minuscole, il che significa che `select` e `SELECT` sono equivalenti. Tuttavia, a seconda del tipo di database che stai utilizzando, le colonne e le tabelle potrebbero essere sensibili alle maiuscole e minuscole. Di conseguenza, è una buona pratica trattare sempre tutto nella programmazione come se fosse sensibile alle maiuscole e minuscole. Quando scrivi query SQL, la convenzione comune è mettere le parole chiave in lettere maiuscole.
+
+La query sopra visualizzerà tutte le città. Immaginiamo di voler visualizzare solo le città in Nuova Zelanda. Abbiamo bisogno di una forma di filtro. La parola chiave SQL per questo è `WHERE`, o "dove qualcosa è vero".
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Unire i dati
+
+Finora abbiamo recuperato dati da una singola tabella. Ora vogliamo unire i dati provenienti da **città** e **pioggia**. Questo viene fatto *unendo* le tabelle. Creerai effettivamente un collegamento tra le due tabelle, abbinando i valori di una colonna di ciascuna tabella.
+
+Nel nostro esempio, abbineremo la colonna **city_id** in **pioggia** con la colonna **city_id** in **città**. Questo abbinerà il valore della pioggia alla sua rispettiva città. Il tipo di unione che eseguiremo è chiamato *inner join*, il che significa che se alcune righe non corrispondono a nulla dall'altra tabella, non verranno visualizzate. Nel nostro caso, ogni città ha dati sulla pioggia, quindi tutto verrà visualizzato.
+
+Recuperiamo i dati sulla pioggia del 2019 per tutte le nostre città.
+
+Lo faremo in passaggi. Il primo passo è unire i dati indicando le colonne per il collegamento - **city_id** come evidenziato prima.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Abbiamo evidenziato le due colonne che vogliamo e il fatto che vogliamo unire le tabelle tramite **city_id**. Ora possiamo aggiungere l'istruzione `WHERE` per filtrare solo l'anno 2019.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Riepilogo
+
+I database relazionali si basano sulla suddivisione delle informazioni tra più tabelle che vengono poi riunite per la visualizzazione e l'analisi. Questo offre un alto grado di flessibilità per eseguire calcoli e manipolare i dati. Hai visto i concetti fondamentali di un database relazionale e come eseguire un'unione tra due tabelle.
+
+## 🚀 Sfida
+
+Esistono numerosi database relazionali disponibili su internet. Puoi esplorare i dati utilizzando le competenze che hai appreso sopra.
+
+## Quiz post-lezione
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Revisione e studio autonomo
+
+Ci sono diverse risorse disponibili su [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) per continuare la tua esplorazione dei concetti di SQL e database relazionali.
+
+- [Descrivere i concetti di dati relazionali](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Iniziare a interrogare con Transact-SQL](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL è una versione di SQL)
+- [Contenuti SQL su Microsoft Learn](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Compito
+
+[Titolo del compito](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/05-relational-databases/assignment.md b/translations/it/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..1731bb86
--- /dev/null
+++ b/translations/it/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Visualizzazione dei dati sugli aeroporti
+
+Ti è stato fornito un [database](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) basato su [SQLite](https://sqlite.org/index.html) che contiene informazioni sugli aeroporti. Lo schema è mostrato di seguito. Utilizzerai l'[estensione SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) in [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) per visualizzare informazioni sugli aeroporti di diverse città.
+
+## Istruzioni
+
+Per iniziare con l'esercizio, dovrai eseguire alcuni passaggi. Sarà necessario installare alcuni strumenti e scaricare il database di esempio.
+
+### Configura il tuo sistema
+
+Puoi utilizzare Visual Studio Code e l'estensione SQLite per interagire con il database.
+
+1. Vai su [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) e segui le istruzioni per installare Visual Studio Code
+1. Installa l'[estensione SQLite](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) come indicato nella pagina del Marketplace
+
+### Scarica e apri il database
+
+Successivamente, scarica e apri il database.
+
+1. Scarica il [file del database da GitHub](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) e salvalo in una directory
+1. Apri Visual Studio Code
+1. Apri il database nell'estensione SQLite selezionando **Ctl-Shift-P** (o **Cmd-Shift-P** su Mac) e digitando `SQLite: Open database`
+1. Seleziona **Choose database from file** e apri il file **airports.db** che hai scaricato in precedenza
+1. Dopo aver aperto il database (non vedrai un aggiornamento sullo schermo), crea una nuova finestra di query selezionando **Ctl-Shift-P** (o **Cmd-Shift-P** su Mac) e digitando `SQLite: New query`
+
+Una volta aperta, la nuova finestra di query può essere utilizzata per eseguire istruzioni SQL sul database. Puoi utilizzare il comando **Ctl-Shift-Q** (o **Cmd-Shift-Q** su Mac) per eseguire query sul database.
+
+> [!NOTE] Per ulteriori informazioni sull'estensione SQLite, puoi consultare la [documentazione](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum)
+
+## Schema del database
+
+Lo schema di un database è il design e la struttura delle sue tabelle. Il database **airports** ha due tabelle, `cities`, che contiene un elenco di città nel Regno Unito e in Irlanda, e `airports`, che contiene l'elenco di tutti gli aeroporti. Poiché alcune città possono avere più aeroporti, sono state create due tabelle per memorizzare le informazioni. In questo esercizio utilizzerai le join per visualizzare informazioni relative a diverse città.
+
+| Cities |
+| ---------------- |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Airports |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (FK to id in **Cities**) |
+
+## Esercizio
+
+Crea query per restituire le seguenti informazioni:
+
+1. tutti i nomi delle città nella tabella `Cities`
+1. tutte le città in Irlanda nella tabella `Cities`
+1. tutti i nomi degli aeroporti con la loro città e il loro paese
+1. tutti gli aeroporti a Londra, Regno Unito
+
+## Valutazione
+
+| Esemplare | Adeguato | Da migliorare |
+| --------- | -------- | ------------- |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/06-non-relational/README.md b/translations/it/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..48a84735
--- /dev/null
+++ b/translations/it/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Lavorare con i dati: Dati non relazionali
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|Lavorare con i dati NoSQL - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+I dati non sono limitati ai database relazionali. Questa lezione si concentra sui dati non relazionali e coprirà le basi dei fogli di calcolo e del NoSQL.
+
+## Fogli di calcolo
+
+I fogli di calcolo sono un modo popolare per archiviare ed esplorare i dati perché richiedono meno lavoro per essere configurati e utilizzati. In questa lezione imparerai i componenti di base di un foglio di calcolo, oltre a formule e funzioni. Gli esempi saranno illustrati con Microsoft Excel, ma la maggior parte delle parti e degli argomenti avrà nomi e passaggi simili rispetto ad altri software di fogli di calcolo.
+
+
+
+Un foglio di calcolo è un file e sarà accessibile nel file system di un computer, dispositivo o sistema di file basato su cloud. Il software stesso può essere basato su browser o un'applicazione che deve essere installata su un computer o scaricata come app. In Excel questi file sono definiti anche come **workbook** e questa terminologia sarà utilizzata per il resto della lezione.
+
+Un workbook contiene una o più **worksheet**, dove ogni foglio di lavoro è etichettato con delle schede. All'interno di un foglio di lavoro ci sono rettangoli chiamati **celle**, che contengono i dati effettivi. Una cella è l'intersezione di una riga e una colonna, dove le colonne sono etichettate con caratteri alfabetici e le righe con numeri. Alcuni fogli di calcolo contengono intestazioni nelle prime righe per descrivere i dati in una cella.
+
+Con questi elementi di base di un workbook Excel, utilizzeremo un esempio da [Microsoft Templates](https://templates.office.com/) focalizzato su un inventario per esaminare alcune parti aggiuntive di un foglio di calcolo.
+
+### Gestione di un inventario
+
+Il file del foglio di calcolo chiamato "InventoryExample" è un foglio di calcolo formattato di articoli all'interno di un inventario che contiene tre fogli di lavoro, dove le schede sono etichettate "Inventory List", "Inventory Pick List" e "Bin Lookup". La riga 4 del foglio di lavoro Inventory List è l'intestazione, che descrive il valore di ogni cella nella colonna dell'intestazione.
+
+
+
+Ci sono casi in cui una cella dipende dai valori di altre celle per generare il proprio valore. Il foglio di lavoro Inventory List tiene traccia del costo di ogni articolo nel suo inventario, ma cosa succede se abbiamo bisogno di sapere il valore di tutto l'inventario? [**Le formule**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263) eseguono azioni sui dati delle celle e vengono utilizzate per calcolare il costo dell'inventario in questo esempio. Questo foglio di calcolo utilizza una formula nella colonna Inventory Value per calcolare il valore di ogni articolo moltiplicando la quantità sotto l'intestazione QTY e i suoi costi dalle celle sotto l'intestazione COST. Facendo doppio clic o evidenziando una cella verrà mostrata la formula. Noterai che le formule iniziano con un segno di uguale, seguito dal calcolo o dall'operazione.
+
+
+
+Possiamo utilizzare un'altra formula per sommare tutti i valori di Inventory Value e ottenere il valore totale. Questo potrebbe essere calcolato sommando ogni cella per generare la somma, ma può essere un compito tedioso. Excel ha [**funzioni**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89), ovvero formule predefinite per eseguire calcoli sui valori delle celle. Le funzioni richiedono argomenti, che sono i valori necessari per eseguire questi calcoli. Quando le funzioni richiedono più di un argomento, devono essere elencate in un ordine specifico o la funzione potrebbe non calcolare il valore corretto. Questo esempio utilizza la funzione SUM e utilizza i valori di Inventory Value come argomento per sommare e generare il totale elencato sotto la riga 3, colonna B (anche indicata come B3).
+
+## NoSQL
+
+NoSQL è un termine generico per i diversi modi di archiviare dati non relazionali e può essere interpretato come "non-SQL", "non-relazionale" o "non solo SQL". Questi tipi di sistemi di database possono essere classificati in 4 tipi.
+
+
+> Fonte da [Blog di Michał Białecki](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+I database [Key-value](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) associano chiavi uniche, che sono identificatori unici associati a un valore. Queste coppie vengono archiviate utilizzando una [tabella hash](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) con una funzione di hashing appropriata.
+
+
+> Fonte da [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+I database [Graph](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) descrivono le relazioni nei dati e sono rappresentati come una raccolta di nodi e archi. Un nodo rappresenta un'entità, qualcosa che esiste nel mondo reale come uno studente o un estratto conto bancario. Gli archi rappresentano la relazione tra due entità. Ogni nodo e arco ha proprietà che forniscono informazioni aggiuntive su ciascun nodo e arco.
+
+
+
+Gli [archivi dati colonnari](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) organizzano i dati in colonne e righe come una struttura dati relazionale, ma ogni colonna è divisa in gruppi chiamati famiglie di colonne, dove tutti i dati sotto una colonna sono correlati e possono essere recuperati e modificati in un'unica unità.
+
+### Archivi dati documentali con Azure Cosmos DB
+
+Gli [archivi dati documentali](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) si basano sul concetto di un archivio dati chiave-valore e sono costituiti da una serie di campi e oggetti. Questa sezione esplorerà i database documentali con l'emulatore Cosmos DB.
+
+Un database Cosmos DB si adatta alla definizione di "Non Solo SQL", dove il database documentale di Cosmos DB si basa su SQL per interrogare i dati. La [lezione precedente](../05-relational-databases/README.md) su SQL copre le basi del linguaggio e saremo in grado di applicare alcune delle stesse query a un database documentale qui. Utilizzeremo l'emulatore Cosmos DB, che ci consente di creare ed esplorare un database documentale localmente su un computer. Leggi di più sull'emulatore [qui](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Un documento è una raccolta di campi e valori di oggetti, dove i campi descrivono cosa rappresenta il valore dell'oggetto. Di seguito è riportato un esempio di documento.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+I campi di interesse in questo documento sono: `firstname`, `id` e `age`. Gli altri campi con gli underscore sono stati generati da Cosmos DB.
+
+#### Esplorare i dati con l'emulatore Cosmos DB
+
+Puoi scaricare e installare l'emulatore [per Windows qui](https://aka.ms/cosmosdb-emulator). Consulta questa [documentazione](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) per le opzioni su come eseguire l'emulatore su macOS e Linux.
+
+L'emulatore avvia una finestra del browser, dove la vista Explorer consente di esplorare i documenti.
+
+
+
+Se stai seguendo, fai clic su "Start with Sample" per generare un database di esempio chiamato SampleDB. Se espandi SampleDB facendo clic sulla freccia, troverai un contenitore chiamato `Persons`. Un contenitore contiene una raccolta di elementi, che sono i documenti all'interno del contenitore. Puoi esplorare i quattro documenti individuali sotto `Items`.
+
+
+
+#### Interrogare i dati documentali con l'emulatore Cosmos DB
+
+Possiamo anche interrogare i dati di esempio facendo clic sul pulsante nuova query SQL (secondo pulsante da sinistra).
+
+`SELECT * FROM c` restituisce tutti i documenti nel contenitore. Aggiungiamo una clausola where e troviamo tutti quelli con meno di 40 anni.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+La query restituisce due documenti, nota che il valore age per ciascun documento è inferiore a 40.
+
+#### JSON e documenti
+
+Se hai familiarità con JavaScript Object Notation (JSON), noterai che i documenti sembrano simili a JSON. C'è un file `PersonsData.json` in questa directory con più dati che puoi caricare nel contenitore Persons nell'emulatore tramite il pulsante `Upload Item`.
+
+Nella maggior parte dei casi, le API che restituiscono dati JSON possono essere trasferite direttamente e archiviate nei database documentali. Di seguito è riportato un altro documento, rappresenta tweet dall'account Twitter di Microsoft che sono stati recuperati utilizzando l'API di Twitter, quindi inseriti in Cosmos DB.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+I campi di interesse in questo documento sono: `created_at`, `id` e `text`.
+
+## 🚀 Sfida
+
+C'è un file `TwitterData.json` che puoi caricare nel database SampleDB. Si consiglia di aggiungerlo a un contenitore separato. Questo può essere fatto:
+
+1. Facendo clic sul pulsante nuovo contenitore in alto a destra
+1. Selezionando il database esistente (SampleDB) e creando un id per il contenitore
+1. Impostando la chiave di partizione su `/id`
+1. Facendo clic su OK (puoi ignorare il resto delle informazioni in questa vista poiché si tratta di un piccolo set di dati che gira localmente sulla tua macchina)
+1. Apri il nuovo contenitore e carica il file Twitter Data con il pulsante `Upload Item`
+
+Prova a eseguire alcune query SELECT per trovare i documenti che contengono Microsoft nel campo text. Suggerimento: prova a utilizzare la [parola chiave LIKE](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character).
+
+## [Quiz Post-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Revisione e studio autonomo
+
+- Ci sono alcune formattazioni e funzionalità aggiuntive in questo foglio di calcolo che questa lezione non copre. Microsoft ha una [grande libreria di documentazione e video](https://support.microsoft.com/excel) su Excel se sei interessato a saperne di più.
+
+- Questa documentazione architettonica dettaglia le caratteristiche dei diversi tipi di dati non relazionali: [Dati non relazionali e NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data).
+
+- Cosmos DB è un database non relazionale basato su cloud che può anche archiviare i diversi tipi di NoSQL menzionati in questa lezione. Scopri di più su questi tipi in questo [Modulo Microsoft Learn su Cosmos DB](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/).
+
+## Compito
+
+[Soda Profits](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/06-non-relational/assignment.md b/translations/it/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..be0087f9
--- /dev/null
+++ b/translations/it/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Profitti della Soda
+
+## Istruzioni
+
+Il [foglio di calcolo Coca Cola Co](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) manca di alcuni calcoli. Il tuo compito è:
+
+1. Calcolare i Profitti Lordi degli anni fiscali '15, '16, '17 e '18
+ - Profitto Lordo = Ricavi operativi netti - Costo delle merci vendute
+1. Calcolare la media di tutti i profitti lordi. Cerca di farlo utilizzando una funzione.
+ - Media = Somma dei profitti lordi divisa per il numero di anni fiscali (10)
+ - Documentazione sulla [funzione MEDIA](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6)
+1. Questo è un file Excel, ma dovrebbe essere modificabile su qualsiasi piattaforma per fogli di calcolo
+
+[Crediti della fonte dati a Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/07-python/README.md b/translations/it/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..d7ca44f5
--- /dev/null
+++ b/translations/it/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Lavorare con i Dati: Python e la Libreria Pandas
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Lavorare con Python - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Sebbene i database offrano modi molto efficienti per memorizzare e interrogare i dati utilizzando linguaggi di query, il modo più flessibile per elaborare i dati è scrivere un proprio programma per manipolarli. In molti casi, eseguire una query su un database sarebbe un metodo più efficace. Tuttavia, in alcuni casi in cui è necessaria un'elaborazione più complessa dei dati, non è facile farlo utilizzando SQL.
+L'elaborazione dei dati può essere programmata in qualsiasi linguaggio di programmazione, ma ci sono alcuni linguaggi che sono più adatti per lavorare con i dati. Gli scienziati dei dati di solito preferiscono uno dei seguenti linguaggi:
+
+* **[Python](https://www.python.org/)**, un linguaggio di programmazione generico, spesso considerato una delle migliori opzioni per i principianti grazie alla sua semplicità. Python dispone di molte librerie aggiuntive che possono aiutarti a risolvere molti problemi pratici, come estrarre dati da un archivio ZIP o convertire un'immagine in scala di grigi. Oltre alla scienza dei dati, Python è spesso utilizzato anche per lo sviluppo web.
+* **[R](https://www.r-project.org/)** è uno strumento tradizionale sviluppato con l'elaborazione statistica dei dati in mente. Contiene anche un ampio repository di librerie (CRAN), rendendolo una buona scelta per l'elaborazione dei dati. Tuttavia, R non è un linguaggio di programmazione generico e viene raramente utilizzato al di fuori del dominio della scienza dei dati.
+* **[Julia](https://julialang.org/)** è un altro linguaggio sviluppato specificamente per la scienza dei dati. È progettato per offrire prestazioni migliori rispetto a Python, rendendolo uno strumento eccellente per esperimenti scientifici.
+
+In questa lezione, ci concentreremo sull'utilizzo di Python per semplici elaborazioni dei dati. Daremo per scontata una conoscenza di base del linguaggio. Se desideri un'introduzione più approfondita a Python, puoi fare riferimento a una delle seguenti risorse:
+
+* [Impara Python in modo divertente con Turtle Graphics e Frattali](https://github.com/shwars/pycourse) - Corso introduttivo rapido su GitHub per la programmazione in Python
+* [Muovi i tuoi primi passi con Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Percorso di apprendimento su [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+I dati possono presentarsi in molte forme. In questa lezione, considereremo tre forme di dati: **dati tabellari**, **testo** e **immagini**.
+
+Ci concentreremo su alcuni esempi di elaborazione dei dati, invece di fornire una panoramica completa di tutte le librerie correlate. Questo ti permetterà di comprendere le possibilità principali e di sapere dove trovare soluzioni ai tuoi problemi quando ne avrai bisogno.
+
+> **Il consiglio più utile**. Quando hai bisogno di eseguire un'operazione sui dati che non sai come fare, prova a cercarla su internet. [Stackoverflow](https://stackoverflow.com/) contiene spesso molti esempi di codice utili in Python per molti compiti tipici.
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Dati Tabellari e Dataframe
+
+Hai già incontrato i dati tabellari quando abbiamo parlato di database relazionali. Quando hai molti dati contenuti in diverse tabelle collegate, ha sicuramente senso utilizzare SQL per lavorarci. Tuttavia, ci sono molti casi in cui abbiamo una tabella di dati e dobbiamo ottenere una **comprensione** o **intuizioni** su questi dati, come la distribuzione, la correlazione tra i valori, ecc. Nella scienza dei dati, ci sono molti casi in cui dobbiamo eseguire alcune trasformazioni dei dati originali, seguite da una visualizzazione. Entrambi questi passaggi possono essere facilmente eseguiti utilizzando Python.
+
+Ci sono due librerie più utili in Python che possono aiutarti a gestire i dati tabellari:
+* **[Pandas](https://pandas.pydata.org/)** ti consente di manipolare i cosiddetti **Dataframe**, che sono analoghi alle tabelle relazionali. Puoi avere colonne con nomi e eseguire diverse operazioni su righe, colonne e dataframe in generale.
+* **[Numpy](https://numpy.org/)** è una libreria per lavorare con **tensori**, ovvero **array** multidimensionali. Gli array hanno valori dello stesso tipo sottostante, sono più semplici dei dataframe, ma offrono più operazioni matematiche e creano meno sovraccarico.
+
+Ci sono anche un paio di altre librerie che dovresti conoscere:
+* **[Matplotlib](https://matplotlib.org/)** è una libreria utilizzata per la visualizzazione dei dati e la creazione di grafici
+* **[SciPy](https://www.scipy.org/)** è una libreria con alcune funzioni scientifiche aggiuntive. Abbiamo già incontrato questa libreria parlando di probabilità e statistiche.
+
+Ecco un pezzo di codice che useresti tipicamente per importare queste librerie all'inizio del tuo programma Python:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas si basa su alcuni concetti fondamentali.
+
+### Serie
+
+**Serie** è una sequenza di valori, simile a una lista o un array numpy. La differenza principale è che le serie hanno anche un **indice**, e quando operiamo sulle serie (ad esempio, sommandole), l'indice viene preso in considerazione. L'indice può essere semplice come un numero intero che rappresenta il numero di riga (è l'indice utilizzato per impostazione predefinita quando si crea una serie da una lista o un array), oppure può avere una struttura complessa, come un intervallo di date.
+
+> **Nota**: Nel notebook allegato [`notebook.ipynb`](notebook.ipynb) è presente del codice introduttivo su Pandas. Qui riportiamo solo alcuni esempi, ma sei sicuramente invitato a consultare il notebook completo.
+
+Considera un esempio: vogliamo analizzare le vendite del nostro chiosco di gelati. Generiamo una serie di numeri di vendita (numero di articoli venduti ogni giorno) per un certo periodo di tempo:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Ora supponiamo che ogni settimana organizziamo una festa per gli amici e prendiamo 10 confezioni di gelato in più per la festa. Possiamo creare un'altra serie, indicizzata per settimana, per dimostrarlo:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+Quando sommiamo due serie, otteniamo il numero totale:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Nota** che non stiamo usando la sintassi semplice `total_items+additional_items`. Se lo facessimo, otterremmo molti valori `NaN` (*Not a Number*) nella serie risultante. Questo perché ci sono valori mancanti per alcuni punti dell'indice nella serie `additional_items`, e sommare `NaN` a qualsiasi cosa restituisce `NaN`. Pertanto, dobbiamo specificare il parametro `fill_value` durante l'addizione.
+
+Con le serie temporali, possiamo anche **ricampionare** la serie con intervalli di tempo diversi. Ad esempio, supponiamo di voler calcolare il volume medio di vendite mensile. Possiamo usare il seguente codice:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+Un DataFrame è essenzialmente una raccolta di serie con lo stesso indice. Possiamo combinare diverse serie insieme in un DataFrame:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Questo creerà una tabella orizzontale come questa:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Possiamo anche usare le Serie come colonne e specificare i nomi delle colonne usando un dizionario:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Questo ci darà una tabella come questa:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Nota** che possiamo ottenere questa disposizione della tabella anche trasponendo la tabella precedente, ad esempio scrivendo
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Qui `.T` indica l'operazione di trasposizione del DataFrame, ovvero lo scambio di righe e colonne, e l'operazione `rename` ci consente di rinominare le colonne per corrispondere all'esempio precedente.
+
+Ecco alcune delle operazioni più importanti che possiamo eseguire sui DataFrame:
+
+**Selezione delle colonne**. Possiamo selezionare colonne individuali scrivendo `df['A']` - questa operazione restituisce una Serie. Possiamo anche selezionare un sottoinsieme di colonne in un altro DataFrame scrivendo `df[['B','A']]` - questo restituisce un altro DataFrame.
+
+**Filtrare** solo alcune righe in base a criteri. Ad esempio, per mantenere solo le righe con la colonna `A` maggiore di 5, possiamo scrivere `df[df['A']>5]`.
+
+> **Nota**: Il modo in cui funziona il filtraggio è il seguente. L'espressione `df['A']<5` restituisce una serie booleana, che indica se l'espressione è `True` o `False` per ciascun elemento della serie originale `df['A']`. Quando la serie booleana viene utilizzata come indice, restituisce un sottoinsieme di righe nel DataFrame. Pertanto, non è possibile utilizzare un'espressione booleana arbitraria di Python, ad esempio, scrivere `df[df['A']>5 and df['A']<7]` sarebbe sbagliato. Invece, dovresti usare l'operatore speciale `&` sulle serie booleane, scrivendo `df[(df['A']>5) & (df['A']<7)]` (*le parentesi sono importanti qui*).
+
+**Creare nuove colonne calcolabili**. Possiamo facilmente creare nuove colonne calcolabili per il nostro DataFrame utilizzando un'espressione intuitiva come questa:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Questo esempio calcola la divergenza di A dal suo valore medio. Quello che succede in realtà è che stiamo calcolando una serie e poi assegnando questa serie al lato sinistro, creando un'altra colonna. Pertanto, non possiamo usare operazioni che non sono compatibili con le serie, ad esempio, il codice seguente è sbagliato:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+L'ultimo esempio, pur essendo sintatticamente corretto, ci dà un risultato sbagliato, perché assegna la lunghezza della serie `B` a tutti i valori nella colonna, e non la lunghezza degli elementi individuali come intendevamo.
+
+Se dobbiamo calcolare espressioni complesse come questa, possiamo usare la funzione `apply`. L'ultimo esempio può essere scritto come segue:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Dopo le operazioni sopra, otterremo il seguente DataFrame:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Selezionare righe in base ai numeri** può essere fatto usando la struttura `iloc`. Ad esempio, per selezionare le prime 5 righe del DataFrame:
+```python
+df.iloc[:5]
+```
+
+**Raggruppamento** è spesso utilizzato per ottenere un risultato simile alle *tabelle pivot* in Excel. Supponiamo di voler calcolare il valore medio della colonna `A` per ciascun numero dato di `LenB`. Possiamo quindi raggruppare il nostro DataFrame per `LenB` e chiamare `mean`:
+```python
+df.groupby(by='LenB').mean()
+```
+Se dobbiamo calcolare la media e il numero di elementi nel gruppo, possiamo usare la funzione più complessa `aggregate`:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Questo ci dà la seguente tabella:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Ottenere Dati
+Abbiamo visto quanto sia facile costruire Series e DataFrames a partire da oggetti Python. Tuttavia, i dati solitamente si presentano sotto forma di file di testo o di tabella Excel. Fortunatamente, Pandas ci offre un modo semplice per caricare i dati dal disco. Ad esempio, leggere un file CSV è semplice come questo:
+```python
+df = pd.read_csv('file.csv')
+```
+Vedremo più esempi di caricamento dei dati, inclusa la possibilità di recuperarli da siti web esterni, nella sezione "Sfida".
+
+### Stampa e Visualizzazione
+
+Un Data Scientist spesso deve esplorare i dati, quindi è importante essere in grado di visualizzarli. Quando un DataFrame è grande, molte volte vogliamo solo assicurarci di fare tutto correttamente stampando le prime righe. Questo può essere fatto chiamando `df.head()`. Se lo esegui da Jupyter Notebook, stamperà il DataFrame in una forma tabellare ben organizzata.
+
+Abbiamo anche visto l'uso della funzione `plot` per visualizzare alcune colonne. Sebbene `plot` sia molto utile per molti compiti e supporti diversi tipi di grafici tramite il parametro `kind=`, puoi sempre utilizzare la libreria `matplotlib` per creare qualcosa di più complesso. Tratteremo la visualizzazione dei dati in dettaglio in lezioni separate del corso.
+
+Questa panoramica copre i concetti più importanti di Pandas, tuttavia, la libreria è molto ricca e non ci sono limiti a ciò che puoi fare con essa! Applichiamo ora questa conoscenza per risolvere un problema specifico.
+
+## 🚀 Sfida 1: Analizzare la Diffusione del COVID
+
+Il primo problema su cui ci concentreremo è la modellazione della diffusione epidemica del COVID-19. Per farlo, utilizzeremo i dati sul numero di individui infetti in diversi paesi, forniti dal [Center for Systems Science and Engineering](https://systems.jhu.edu/) (CSSE) presso la [Johns Hopkins University](https://jhu.edu/). Il dataset è disponibile in [questo repository GitHub](https://github.com/CSSEGISandData/COVID-19).
+
+Poiché vogliamo dimostrare come gestire i dati, ti invitiamo ad aprire [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) e leggerlo dall'inizio alla fine. Puoi anche eseguire le celle e affrontare alcune sfide che abbiamo lasciato per te alla fine.
+
+
+
+> Se non sai come eseguire il codice in Jupyter Notebook, dai un'occhiata a [questo articolo](https://soshnikov.com/education/how-to-execute-notebooks-from-github/).
+
+## Lavorare con Dati Non Strutturati
+
+Sebbene i dati spesso si presentino in forma tabellare, in alcuni casi dobbiamo gestire dati meno strutturati, ad esempio testo o immagini. In questo caso, per applicare le tecniche di elaborazione dei dati che abbiamo visto sopra, dobbiamo in qualche modo **estrarre** dati strutturati. Ecco alcuni esempi:
+
+* Estrarre parole chiave da un testo e vedere quanto spesso appaiono
+* Utilizzare reti neurali per estrarre informazioni sugli oggetti in un'immagine
+* Ottenere informazioni sulle emozioni delle persone da un feed video della telecamera
+
+## 🚀 Sfida 2: Analizzare gli Articoli sul COVID
+
+In questa sfida, continueremo con il tema della pandemia di COVID, concentrandoci sull'elaborazione degli articoli scientifici sull'argomento. Esiste il [Dataset CORD-19](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge) con più di 7000 (al momento della scrittura) articoli sul COVID, disponibile con metadati e abstract (e per circa metà di essi è fornito anche il testo completo).
+
+Un esempio completo di analisi di questo dataset utilizzando il servizio cognitivo [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) è descritto [in questo post sul blog](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/). Discuteremo una versione semplificata di questa analisi.
+
+> **NOTE**: Non forniamo una copia del dataset come parte di questo repository. Potresti prima dover scaricare il file [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) da [questo dataset su Kaggle](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge). Potrebbe essere necessaria la registrazione su Kaggle. Puoi anche scaricare il dataset senza registrazione [da qui](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html), ma includerà tutti i testi completi oltre al file dei metadati.
+
+Apri [`notebook-papers.ipynb`](notebook-papers.ipynb) e leggilo dall'inizio alla fine. Puoi anche eseguire le celle e affrontare alcune sfide che abbiamo lasciato per te alla fine.
+
+
+
+## Elaborazione di Dati Immagine
+
+Recentemente, sono stati sviluppati modelli di intelligenza artificiale molto potenti che ci permettono di comprendere le immagini. Ci sono molti compiti che possono essere risolti utilizzando reti neurali pre-addestrate o servizi cloud. Alcuni esempi includono:
+
+* **Classificazione delle Immagini**, che può aiutarti a categorizzare un'immagine in una delle classi predefinite. Puoi facilmente addestrare i tuoi classificatori di immagini utilizzando servizi come [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum)
+* **Rilevamento degli Oggetti** per rilevare diversi oggetti nell'immagine. Servizi come [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) possono rilevare un numero di oggetti comuni, e puoi addestrare un modello [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) per rilevare alcuni oggetti specifici di interesse.
+* **Rilevamento del Volto**, inclusi età, genere e rilevamento delle emozioni. Questo può essere fatto tramite [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum).
+
+Tutti questi servizi cloud possono essere chiamati utilizzando [Python SDKs](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum), e quindi possono essere facilmente incorporati nel tuo workflow di esplorazione dei dati.
+
+Ecco alcuni esempi di esplorazione dei dati da fonti di dati immagine:
+* Nel post sul blog [Come Imparare Data Science senza Codice](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) esploriamo le foto di Instagram, cercando di capire cosa spinge le persone a mettere più "mi piace" a una foto. Prima estraiamo quante più informazioni possibili dalle immagini utilizzando [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum), e poi utilizziamo [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) per costruire un modello interpretabile.
+* Nel [Workshop Studi Facciali](https://github.com/CloudAdvocacy/FaceStudies) utilizziamo [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) per estrarre emozioni delle persone nelle fotografie di eventi, al fine di cercare di capire cosa rende felici le persone.
+
+## Conclusione
+
+Che tu abbia già dati strutturati o non strutturati, utilizzando Python puoi eseguire tutti i passaggi relativi all'elaborazione e alla comprensione dei dati. È probabilmente il modo più flessibile per elaborare i dati, ed è per questo che la maggior parte dei data scientist utilizza Python come strumento principale. Imparare Python in profondità è probabilmente una buona idea se sei serio riguardo al tuo percorso nella data science!
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Revisione e Studio Autonomo
+
+**Libri**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Risorse Online**
+* Tutorial ufficiale [10 minuti con Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html)
+* [Documentazione sulla Visualizzazione con Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Imparare Python**
+* [Impara Python in modo divertente con Turtle Graphics e Frattali](https://github.com/shwars/pycourse)
+* [Fai i tuoi primi passi con Python](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) Percorso di apprendimento su [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum)
+
+## Compito
+
+[Effettua uno studio più dettagliato dei dati per le sfide sopra](assignment.md)
+
+## Crediti
+
+Questa lezione è stata scritta con ♥️ da [Dmitry Soshnikov](http://soshnikov.com)
+
+---
+
+**Disclaimer (Avvertenza)**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali malintesi o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/07-python/assignment.md b/translations/it/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..6a7f8728
--- /dev/null
+++ b/translations/it/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Compito per l'elaborazione dei dati in Python
+
+In questo compito, ti chiederemo di approfondire il codice che abbiamo iniziato a sviluppare nelle nostre sfide. Il compito è suddiviso in due parti:
+
+## Modellazione della diffusione del COVID-19
+
+ - [ ] Tracciare i grafici di *R* per 5-6 paesi diversi su un unico grafico per confronto, oppure utilizzando più grafici affiancati.
+ - [ ] Analizzare come il numero di decessi e guarigioni si correla con il numero di casi infetti.
+ - [ ] Scoprire quanto dura tipicamente una malattia correlando visivamente il tasso di infezione e il tasso di decessi, cercando eventuali anomalie. Potrebbe essere necessario osservare diversi paesi per scoprirlo.
+ - [ ] Calcolare il tasso di mortalità e come cambia nel tempo. *Potresti voler considerare la durata della malattia in giorni per spostare una serie temporale prima di effettuare i calcoli.*
+
+## Analisi degli articoli sul COVID-19
+
+- [ ] Costruire una matrice di co-occorrenza di diversi farmaci e vedere quali farmaci vengono spesso menzionati insieme (ad esempio, citati in un unico abstract). Puoi modificare il codice per costruire la matrice di co-occorrenza per farmaci e diagnosi.
+- [ ] Visualizzare questa matrice utilizzando una heatmap.
+- [ ] Come obiettivo aggiuntivo, visualizzare la co-occorrenza dei farmaci utilizzando un [diagramma a corde](https://en.wikipedia.org/wiki/Chord_diagram). [Questa libreria](https://pypi.org/project/chord/) potrebbe aiutarti a disegnare un diagramma a corde.
+- [ ] Come un altro obiettivo aggiuntivo, estrarre i dosaggi di diversi farmaci (come **400mg** in *assumere 400mg di clorochina al giorno*) utilizzando espressioni regolari, e costruire un dataframe che mostri i diversi dosaggi per i vari farmaci. **Nota**: considera i valori numerici che si trovano in prossimità testuale del nome del farmaco.
+
+## Griglia di valutazione
+
+Esemplare | Adeguato | Da migliorare
+--- | --- | -- |
+Tutti i compiti sono completati, illustrati graficamente e spiegati, inclusi almeno uno dei due obiettivi aggiuntivi | Più di 5 compiti sono completati, nessun obiettivo aggiuntivo è stato tentato, oppure i risultati non sono chiari | Meno di 5 (ma più di 3) compiti sono completati, le visualizzazioni non aiutano a dimostrare il punto
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/08-data-preparation/README.md b/translations/it/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..5ef75a8e
--- /dev/null
+++ b/translations/it/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# Lavorare con i Dati: Preparazione dei Dati
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Preparazione dei Dati - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+A seconda della sua origine, i dati grezzi possono contenere alcune incongruenze che creeranno difficoltà nell'analisi e nella modellazione. In altre parole, questi dati possono essere classificati come "sporchi" e necessitano di essere ripuliti. Questa lezione si concentra su tecniche per pulire e trasformare i dati per gestire problemi di dati mancanti, inaccurati o incompleti. Gli argomenti trattati in questa lezione utilizzeranno Python e la libreria Pandas e saranno [dimostrati nel notebook](notebook.ipynb) all'interno di questa directory.
+
+## L'importanza di pulire i dati
+
+- **Facilità d'uso e riutilizzo**: Quando i dati sono organizzati e normalizzati correttamente, è più facile cercarli, utilizzarli e condividerli con altri.
+
+- **Coerenza**: La scienza dei dati spesso richiede di lavorare con più di un dataset, dove i dataset provenienti da fonti diverse devono essere uniti. Garantire che ogni singolo dataset abbia una standardizzazione comune assicurerà che i dati siano ancora utili quando vengono uniti in un unico dataset.
+
+- **Accuratezza del modello**: I dati che sono stati puliti migliorano l'accuratezza dei modelli che ne dipendono.
+
+## Obiettivi e strategie comuni di pulizia
+
+- **Esplorare un dataset**: L'esplorazione dei dati, che viene trattata in una [lezione successiva](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing), può aiutarti a scoprire dati che necessitano di essere ripuliti. Osservare visivamente i valori all'interno di un dataset può creare aspettative su come sarà il resto o fornire un'idea dei problemi che possono essere risolti. L'esplorazione può includere interrogazioni di base, visualizzazioni e campionamenti.
+
+- **Formattazione**: A seconda della fonte, i dati possono presentare incongruenze nel modo in cui vengono presentati. Questo può causare problemi nella ricerca e nella rappresentazione dei valori, dove sono visibili nel dataset ma non sono rappresentati correttamente nelle visualizzazioni o nei risultati delle query. I problemi comuni di formattazione includono la gestione degli spazi bianchi, delle date e dei tipi di dati. Risolvere i problemi di formattazione è tipicamente compito di chi utilizza i dati. Ad esempio, gli standard su come vengono presentate le date e i numeri possono variare da paese a paese.
+
+- **Duplicazioni**: I dati che si presentano più di una volta possono produrre risultati inaccurati e di solito dovrebbero essere rimossi. Questo può accadere frequentemente quando si uniscono due o più dataset. Tuttavia, ci sono casi in cui le duplicazioni nei dataset uniti contengono informazioni aggiuntive che potrebbero dover essere preservate.
+
+- **Dati mancanti**: I dati mancanti possono causare risultati inaccurati, deboli o distorti. A volte possono essere risolti con un "ricaricamento" dei dati, riempiendo i valori mancanti con calcoli e codice come Python, o semplicemente rimuovendo il valore e i dati corrispondenti. Ci sono numerose ragioni per cui i dati possono mancare, e le azioni intraprese per risolvere questi valori mancanti possono dipendere da come e perché sono mancati.
+
+## Esplorare le informazioni di un DataFrame
+> **Obiettivo di apprendimento:** Alla fine di questa sottosezione, dovresti sentirti a tuo agio nel trovare informazioni generali sui dati memorizzati nei DataFrame di pandas.
+
+Una volta caricati i dati in pandas, è probabile che siano in un DataFrame (consulta la [lezione precedente](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) per una panoramica dettagliata). Tuttavia, se il dataset nel tuo DataFrame ha 60.000 righe e 400 colonne, come inizi a farti un'idea di cosa stai lavorando? Fortunatamente, [pandas](https://pandas.pydata.org/) fornisce strumenti pratici per esaminare rapidamente le informazioni generali su un DataFrame, oltre alle prime e ultime righe.
+
+Per esplorare questa funzionalità, importeremo la libreria Python scikit-learn e utilizzeremo un dataset iconico: il **dataset Iris**.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |lunghezza sepalo (cm)|larghezza sepalo (cm)|lunghezza petalo (cm)|larghezza petalo (cm)|
+|----------------------------------------|---------------------|---------------------|---------------------|---------------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Per iniziare, il metodo `info()` viene utilizzato per stampare un riepilogo del contenuto presente in un `DataFrame`. Diamo un'occhiata a questo dataset per vedere cosa abbiamo:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Da questo, sappiamo che il dataset *Iris* ha 150 voci in quattro colonne senza valori nulli. Tutti i dati sono memorizzati come numeri in virgola mobile a 64 bit.
+
+- **DataFrame.head()**: Successivamente, per controllare il contenuto effettivo del `DataFrame`, utilizziamo il metodo `head()`. Vediamo come appaiono le prime righe del nostro `iris_df`:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Al contrario, per controllare le ultime righe del `DataFrame`, utilizziamo il metodo `tail()`:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Conclusione:** Anche solo osservando i metadati sulle informazioni in un DataFrame o i primi e ultimi valori in esso, puoi ottenere un'idea immediata delle dimensioni, della forma e del contenuto dei dati con cui stai lavorando.
+
+## Gestire i Dati Mancanti
+> **Obiettivo di apprendimento:** Alla fine di questa sottosezione, dovresti sapere come sostituire o rimuovere valori nulli dai DataFrame.
+
+La maggior parte delle volte, i dataset che vuoi utilizzare (o devi utilizzare) contengono valori mancanti. Il modo in cui i dati mancanti vengono gestiti comporta compromessi sottili che possono influenzare la tua analisi finale e i risultati nel mondo reale.
+
+Pandas gestisce i valori mancanti in due modi. Il primo, che hai già visto in sezioni precedenti, è `NaN`, o Not a Number. Questo è in realtà un valore speciale che fa parte della specifica IEEE per i numeri in virgola mobile ed è utilizzato solo per indicare valori mancanti in virgola mobile.
+
+Per i valori mancanti diversi dai numeri in virgola mobile, pandas utilizza l'oggetto Python `None`. Anche se può sembrare confuso incontrare due tipi diversi di valori che indicano essenzialmente la stessa cosa, ci sono valide ragioni programmatiche per questa scelta di design e, nella pratica, questa soluzione consente a pandas di offrire un buon compromesso per la stragrande maggioranza dei casi. Tuttavia, sia `None` che `NaN` presentano restrizioni di cui devi essere consapevole riguardo al loro utilizzo.
+
+Scopri di più su `NaN` e `None` dal [notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb)!
+
+- **Rilevare valori nulli**: In `pandas`, i metodi `isnull()` e `notnull()` sono i tuoi strumenti principali per rilevare dati nulli. Entrambi restituiscono maschere booleane sui tuoi dati. Utilizzeremo `numpy` per i valori `NaN`:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Osserva attentamente l'output. Qualcosa ti sorprende? Anche se `0` è un valore nullo aritmetico, è comunque un intero valido e pandas lo tratta come tale. `''` è un po' più sottile. Anche se lo abbiamo usato nella Sezione 1 per rappresentare un valore stringa vuoto, è comunque un oggetto stringa e non una rappresentazione di nullo per pandas.
+
+Ora, invertiamo la situazione e utilizziamo questi metodi in un modo più simile a come li userai nella pratica. Puoi utilizzare le maschere booleane direttamente come indice di una ``Series`` o di un ``DataFrame``, il che può essere utile quando cerchi di lavorare con valori nulli (o presenti) isolati.
+
+> **Conclusione**: I metodi `isnull()` e `notnull()` producono risultati simili quando li utilizzi nei `DataFrame`: mostrano i risultati e l'indice di quei risultati, il che ti aiuterà enormemente mentre lavori con i tuoi dati.
+
+- **Eliminare valori nulli**: Oltre a identificare i valori mancanti, pandas fornisce un mezzo pratico per rimuovere i valori nulli da `Series` e `DataFrame`. (Particolarmente nei dataset di grandi dimensioni, è spesso più consigliabile semplicemente rimuovere i valori mancanti [NA] dalla tua analisi piuttosto che gestirli in altri modi.) Per vedere questo in azione, torniamo a `example1`:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Nota che questo dovrebbe assomigliare al tuo output da `example3[example3.notnull()]`. La differenza qui è che, invece di indicizzare solo sui valori mascherati, `dropna` ha rimosso quei valori mancanti dalla `Series` `example1`.
+
+Poiché i `DataFrame` hanno due dimensioni, offrono più opzioni per eliminare i dati.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Hai notato che pandas ha convertito due delle colonne in float per accogliere i `NaN`?)
+
+Non puoi eliminare un singolo valore da un `DataFrame`, quindi devi eliminare intere righe o colonne. A seconda di ciò che stai facendo, potresti voler fare una cosa o l'altra, e quindi pandas ti offre opzioni per entrambe. Poiché nella scienza dei dati le colonne generalmente rappresentano variabili e le righe rappresentano osservazioni, è più probabile che tu elimini righe di dati; l'impostazione predefinita per `dropna()` è eliminare tutte le righe che contengono valori nulli:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Se necessario, puoi eliminare i valori NA dalle colonne. Usa `axis=1` per farlo:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Nota che questo può eliminare molti dati che potresti voler mantenere, in particolare nei dataset più piccoli. E se volessi eliminare solo righe o colonne che contengono diversi o addirittura tutti i valori nulli? Puoi specificare queste impostazioni in `dropna` con i parametri `how` e `thresh`.
+
+Per impostazione predefinita, `how='any'` (se vuoi verificare di persona o vedere quali altri parametri ha il metodo, esegui `example4.dropna?` in una cella di codice). Potresti specificare alternativamente `how='all'` per eliminare solo righe o colonne che contengono tutti i valori nulli. Espandiamo il nostro esempio di `DataFrame` per vedere questo in azione.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+Il parametro `thresh` ti offre un controllo più preciso: imposti il numero di valori *non nulli* che una riga o una colonna deve avere per essere mantenuta:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Qui, la prima e l'ultima riga sono state eliminate, perché contengono solo due valori non nulli.
+
+- **Riempire valori nulli**: A seconda del tuo dataset, a volte può avere più senso riempire i valori nulli con valori validi piuttosto che eliminarli. Potresti usare `isnull` per farlo sul posto, ma questo può essere laborioso, in particolare se hai molti valori da riempire. Poiché questo è un compito così comune nella scienza dei dati, pandas fornisce `fillna`, che restituisce una copia della `Series` o del `DataFrame` con i valori mancanti sostituiti con uno a tua scelta. Creiamo un'altra `Series` di esempio per vedere come funziona nella pratica.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Puoi riempire tutte le voci nulle con un singolo valore, come `0`:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Puoi **riempire in avanti** i valori nulli, utilizzando l'ultimo valore valido per riempire un nullo:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Puoi anche **riempire all'indietro** per propagare il prossimo valore valido all'indietro per riempire un nullo:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Come puoi immaginare, questo funziona allo stesso modo con i `DataFrame`, ma puoi anche specificare un `axis` lungo il quale riempire i valori nulli. Riprendendo l'`example2` utilizzato in precedenza:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Nota che quando un valore precedente non è disponibile per il riempimento in avanti, il valore nullo rimane.
+> **Punto chiave:** Esistono diversi modi per gestire i valori mancanti nei tuoi dataset. La strategia specifica che utilizzi (rimuoverli, sostituirli o anche il modo in cui li sostituisci) dovrebbe essere dettata dalle caratteristiche di quei dati. Acquisirai una maggiore consapevolezza su come affrontare i valori mancanti man mano che gestisci e interagisci con i dataset.
+
+## Rimozione di dati duplicati
+
+> **Obiettivo di apprendimento:** Alla fine di questa sottosezione, dovresti sentirti a tuo agio nell'identificare e rimuovere valori duplicati dai DataFrame.
+
+Oltre ai dati mancanti, spesso incontrerai dati duplicati nei dataset del mondo reale. Fortunatamente, `pandas` offre un modo semplice per rilevare e rimuovere le voci duplicate.
+
+- **Identificazione dei duplicati: `duplicated`**: Puoi facilmente individuare i valori duplicati utilizzando il metodo `duplicated` di pandas, che restituisce una maschera booleana indicando se una voce in un `DataFrame` è un duplicato di una precedente. Creiamo un altro esempio di `DataFrame` per vedere questo in azione.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Eliminazione dei duplicati: `drop_duplicates`:** restituisce semplicemente una copia dei dati per i quali tutti i valori `duplicated` sono `False`:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Sia `duplicated` che `drop_duplicates` considerano di default tutte le colonne, ma puoi specificare che esaminino solo un sottoinsieme di colonne nel tuo `DataFrame`:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Punto chiave:** Rimuovere i dati duplicati è una parte essenziale di quasi ogni progetto di data science. I dati duplicati possono alterare i risultati delle tue analisi e fornire risultati inaccurati!
+
+
+## 🚀 Sfida
+
+Tutti i materiali discussi sono forniti come un [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb). Inoltre, ci sono esercizi presenti alla fine di ogni sezione, provali!
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Revisione e studio autonomo
+
+Esistono molti modi per scoprire e affrontare la preparazione dei tuoi dati per l'analisi e la modellazione, e la pulizia dei dati è un passaggio importante che richiede un'esperienza "pratica". Prova queste sfide su Kaggle per esplorare tecniche che questa lezione non ha trattato.
+
+- [Data Cleaning Challenge: Parsing Dates](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Data Cleaning Challenge: Scale and Normalize Data](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Compito
+
+[Valutazione dei dati da un modulo](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/08-data-preparation/assignment.md b/translations/it/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..963eae52
--- /dev/null
+++ b/translations/it/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Valutazione dei dati di un modulo
+
+Un cliente ha testato un [piccolo modulo](../../../../2-Working-With-Data/08-data-preparation/index.html) per raccogliere alcuni dati di base sulla propria clientela. Ha portato i risultati a te per validare i dati raccolti. Puoi aprire la pagina `index.html` nel browser per dare un'occhiata al modulo.
+
+Ti è stato fornito un [dataset di record csv](../../../../data/form.csv) che contiene le voci del modulo e alcune visualizzazioni di base. Il cliente ha sottolineato che alcune visualizzazioni sembrano errate, ma non è sicuro di come risolvere il problema. Puoi esplorarle nel [notebook dell'assegnazione](assignment.ipynb).
+
+## Istruzioni
+
+Utilizza le tecniche di questa lezione per fornire raccomandazioni sul modulo, in modo che raccolga informazioni accurate e coerenti.
+
+## Griglia di valutazione
+
+Esemplare | Adeguato | Necessita miglioramenti
+--- | --- | ---
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/2-Working-With-Data/README.md b/translations/it/2-Working-With-Data/README.md
new file mode 100644
index 00000000..359e8d99
--- /dev/null
+++ b/translations/it/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Lavorare con i Dati
+
+
+> Foto di Alexander Sinn su Unsplash
+
+In queste lezioni, imparerai alcuni dei modi in cui i dati possono essere gestiti, manipolati e utilizzati nelle applicazioni. Scoprirai i database relazionali e non relazionali e come i dati possono essere archiviati al loro interno. Imparerai le basi per lavorare con Python nella gestione dei dati e scoprirai alcune delle numerose modalità con cui puoi utilizzare Python per gestire e analizzare i dati.
+
+### Argomenti
+
+1. [Database relazionali](05-relational-databases/README.md)
+2. [Database non relazionali](06-non-relational/README.md)
+3. [Lavorare con Python](07-python/README.md)
+4. [Preparare i dati](08-data-preparation/README.md)
+
+### Crediti
+
+Queste lezioni sono state scritte con ❤️ da [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) e [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Disclaimer (Avvertenza)**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di tenere presente che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali malintesi o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/09-visualization-quantities/README.md b/translations/it/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..809b1c55
--- /dev/null
+++ b/translations/it/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Visualizzare le Quantità
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualizzare le Quantità - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+In questa lezione esplorerai come utilizzare una delle tante librerie Python disponibili per imparare a creare visualizzazioni interessanti attorno al concetto di quantità. Utilizzando un dataset pulito sugli uccelli del Minnesota, potrai scoprire molte curiosità sulla fauna locale.
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Osservare l'apertura alare con Matplotlib
+
+Una libreria eccellente per creare grafici e diagrammi, sia semplici che sofisticati, è [Matplotlib](https://matplotlib.org/stable/index.html). In termini generali, il processo di creazione di grafici utilizzando queste librerie include l'identificazione delle parti del dataframe da analizzare, l'esecuzione di eventuali trasformazioni necessarie sui dati, l'assegnazione dei valori agli assi x e y, la scelta del tipo di grafico da mostrare e infine la visualizzazione del grafico. Matplotlib offre una vasta gamma di visualizzazioni, ma per questa lezione ci concentreremo su quelle più adatte a visualizzare quantità: grafici a linee, scatterplot e grafici a barre.
+
+> ✅ Usa il grafico migliore per adattarti alla struttura dei dati e alla storia che vuoi raccontare.
+> - Per analizzare le tendenze nel tempo: linee
+> - Per confrontare valori: barre, colonne, torta, scatterplot
+> - Per mostrare come le parti si relazionano al tutto: torta
+> - Per mostrare la distribuzione dei dati: scatterplot, barre
+> - Per mostrare tendenze: linee, colonne
+> - Per mostrare relazioni tra valori: linee, scatterplot, bolle
+
+Se hai un dataset e devi scoprire quanto di un determinato elemento è incluso, uno dei primi compiti sarà ispezionare i suoi valori.
+
+✅ Sono disponibili ottimi 'cheat sheet' per Matplotlib [qui](https://matplotlib.org/cheatsheets/cheatsheets.pdf).
+
+## Creare un grafico a linee sui valori dell'apertura alare degli uccelli
+
+Apri il file `notebook.ipynb` nella cartella principale di questa lezione e aggiungi una cella.
+
+> Nota: i dati sono archiviati nella radice di questo repository nella cartella `/data`.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Questi dati sono un mix di testo e numeri:
+
+| | Nome | NomeScientifico | Categoria | Ordine | Famiglia | Genere | StatoConservazione | LungMin | LungMax | MassaCorpMin | MassaCorpMax | AperturaMin | AperturaMax |
+| ---: | :-------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | -------: | -------: | -----------: | -----------: | ----------: | ----------: |
+| 0 | Anatra fischiante ventre nero | Dendrocygna autumnalis | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Anatra fischiante fulva | Dendrocygna bicolor | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Oca delle nevi | Anser caerulescens | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Oca di Ross | Anser rossii | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Oca facciabianca maggiore | Anser albifrons | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Iniziamo tracciando alcuni dei dati numerici utilizzando un semplice grafico a linee. Supponiamo di voler visualizzare l'apertura alare massima di questi interessanti uccelli.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Cosa noti immediatamente? Sembra esserci almeno un valore anomalo: che apertura alare! Un'apertura alare di 2300 centimetri equivale a 23 metri: ci sono Pterodattili che volano in Minnesota? Indaghiamo.
+
+Anche se potresti fare un rapido ordinamento in Excel per trovare questi valori anomali, che probabilmente sono errori di battitura, continua il processo di visualizzazione lavorando direttamente dal grafico.
+
+Aggiungi etichette all'asse x per mostrare di quali uccelli si tratta:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Anche con la rotazione delle etichette impostata a 45 gradi, ce ne sono troppe per essere leggibili. Proviamo una strategia diversa: etichettare solo i valori anomali e posizionare le etichette all'interno del grafico. Puoi utilizzare un grafico a dispersione per fare più spazio alle etichette:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Cosa sta succedendo qui? Hai usato `tick_params` per nascondere le etichette inferiori e poi hai creato un ciclo sul dataset degli uccelli. Tracciando il grafico con piccoli punti blu rotondi usando `bo`, hai controllato se un uccello aveva un'apertura alare massima superiore a 500 e, in tal caso, hai mostrato la sua etichetta accanto al punto. Hai spostato leggermente le etichette sull'asse y (`y * (1 - 0.05)`) e hai usato il nome dell'uccello come etichetta.
+
+Cosa hai scoperto?
+
+
+## Filtrare i dati
+
+Sia l'Aquila Calva che il Falco delle Praterie, pur essendo probabilmente uccelli molto grandi, sembrano essere etichettati erroneamente, con uno `0` in più aggiunto alla loro apertura alare massima. È improbabile che tu incontri un'Aquila Calva con un'apertura alare di 25 metri, ma se succede, faccelo sapere! Creiamo un nuovo dataframe senza questi due valori anomali:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Filtrando i valori anomali, i tuoi dati ora sono più coerenti e comprensibili.
+
+
+
+Ora che abbiamo un dataset più pulito almeno in termini di apertura alare, scopriamo di più su questi uccelli.
+
+Mentre i grafici a linee e a dispersione possono mostrare informazioni sui valori dei dati e le loro distribuzioni, vogliamo riflettere sui valori intrinseci di questo dataset. Potresti creare visualizzazioni per rispondere alle seguenti domande sulla quantità:
+
+> Quante categorie di uccelli ci sono e quali sono i loro numeri?
+> Quanti uccelli sono estinti, in pericolo, rari o comuni?
+> Quanti ce ne sono dei vari generi e ordini nella terminologia di Linneo?
+## Esplorare i grafici a barre
+
+I grafici a barre sono pratici quando devi mostrare raggruppamenti di dati. Esploriamo le categorie di uccelli presenti in questo dataset per vedere quale è la più comune per numero.
+
+Nel file notebook, crea un grafico a barre di base.
+
+✅ Nota, puoi scegliere di filtrare i due uccelli anomali identificati nella sezione precedente, correggere l'errore di battitura nella loro apertura alare o lasciarli per questi esercizi che non dipendono dai valori di apertura alare.
+
+Se vuoi creare un grafico a barre, puoi selezionare i dati su cui concentrarti. I grafici a barre possono essere creati dai dati grezzi:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Questo grafico a barre, tuttavia, è illeggibile perché ci sono troppi dati non raggruppati. Devi selezionare solo i dati che vuoi rappresentare, quindi esaminiamo la lunghezza degli uccelli in base alla loro categoria.
+
+Filtra i tuoi dati per includere solo la categoria degli uccelli.
+
+✅ Nota che usi Pandas per gestire i dati e poi lasci che Matplotlib si occupi della creazione del grafico.
+
+Poiché ci sono molte categorie, puoi visualizzare questo grafico verticalmente e regolare la sua altezza per includere tutti i dati:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Questo grafico a barre mostra una buona panoramica del numero di uccelli in ogni categoria. A colpo d'occhio, vedi che il maggior numero di uccelli in questa regione appartiene alla categoria Anatre/Oche/Uccelli acquatici. Il Minnesota è la "terra dei 10.000 laghi", quindi non è sorprendente!
+
+✅ Prova a fare altri conteggi su questo dataset. C'è qualcosa che ti sorprende?
+
+## Confrontare i dati
+
+Puoi provare diversi confronti di dati raggruppati creando nuovi assi. Prova un confronto della Lunghezza Massima di un uccello, basato sulla sua categoria:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Nulla di sorprendente qui: i colibrì hanno la Lunghezza Massima più bassa rispetto ai Pellicani o alle Oche. È positivo quando i dati hanno senso logico!
+
+Puoi creare visualizzazioni più interessanti dei grafici a barre sovrapponendo i dati. Sovrapponiamo la Lunghezza Minima e Massima di una determinata categoria di uccelli:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+In questo grafico, puoi vedere l'intervallo per categoria di uccelli della Lunghezza Minima e Massima. Puoi affermare con sicurezza che, dati questi dati, più grande è l'uccello, maggiore è il suo intervallo di lunghezza. Affascinante!
+
+
+
+## 🚀 Sfida
+
+Questo dataset sugli uccelli offre una ricchezza di informazioni su diversi tipi di uccelli all'interno di un particolare ecosistema. Cerca su internet e vedi se riesci a trovare altri dataset sugli uccelli. Esercitati a costruire grafici e diagrammi su questi uccelli per scoprire fatti che non conoscevi.
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Revisione e Studio Autonomo
+
+Questa prima lezione ti ha fornito alcune informazioni su come utilizzare Matplotlib per visualizzare quantità. Fai delle ricerche su altri modi per lavorare con i dataset per la visualizzazione. [Plotly](https://github.com/plotly/plotly.py) è uno strumento che non tratteremo in queste lezioni, quindi dai un'occhiata a ciò che può offrire.
+## Compito
+
+[Linee, Dispersioni e Barre](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/it/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..f11343ea
--- /dev/null
+++ b/translations/it/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linee, Dispersioni e Barre
+
+## Istruzioni
+
+In questa lezione, hai lavorato con grafici a linee, diagrammi di dispersione e grafici a barre per mostrare fatti interessanti su questo dataset. In questo compito, approfondisci il dataset per scoprire un fatto su un determinato tipo di uccello. Ad esempio, crea un notebook che visualizzi tutti i dati interessanti che puoi trovare sulle Oche delle Nevi. Usa i tre grafici menzionati sopra per raccontare una storia nel tuo notebook.
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Viene presentato un notebook con buone annotazioni, una narrazione solida e grafici accattivanti | Al notebook manca uno di questi elementi | Al notebook mancano due di questi elementi
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/10-visualization-distributions/README.md b/translations/it/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..ef478156
--- /dev/null
+++ b/translations/it/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,217 @@
+
+# Visualizzare le Distribuzioni
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualizzare le Distribuzioni - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Nella lezione precedente, hai appreso alcuni fatti interessanti su un dataset riguardante gli uccelli del Minnesota. Hai individuato alcuni dati errati visualizzando i valori anomali e hai osservato le differenze tra le categorie di uccelli in base alla loro lunghezza massima.
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Esplora il dataset sugli uccelli
+
+Un altro modo per analizzare i dati è osservare la loro distribuzione, ovvero come i dati sono organizzati lungo un asse. Forse, ad esempio, vorresti sapere di più sulla distribuzione generale, per questo dataset, dell'apertura alare massima o della massa corporea massima degli uccelli del Minnesota.
+
+Scopriamo alcuni fatti sulle distribuzioni dei dati in questo dataset. Nel file _notebook.ipynb_ nella cartella principale di questa lezione, importa Pandas, Matplotlib e i tuoi dati:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | Nome | NomeScientifico | Categoria | Ordine | Famiglia | Genere | StatoConservazione | MinLunghezza | MaxLunghezza | MinMassaCorporea | MaxMassaCorporea | MinAperturaAlare | MaxAperturaAlare |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | ------------: | ------------: | ----------------: | ----------------: | ----------------: | ----------------: |
+| 0 | Anatra fischiante ventre nero | Dendrocygna autumnalis | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Anatra fischiante fulva | Dendrocygna bicolor | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Oca delle nevi | Anser caerulescens | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Oca di Ross | Anser rossii | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Oca dalla fronte bianca maggiore | Anser albifrons | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+In generale, puoi osservare rapidamente come i dati sono distribuiti utilizzando un grafico a dispersione, come abbiamo fatto nella lezione precedente:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Questo offre una panoramica della distribuzione generale della lunghezza corporea per ordine di uccelli, ma non è il modo ottimale per mostrare le vere distribuzioni. Questo compito è solitamente gestito creando un Istogramma.
+
+## Lavorare con gli istogrammi
+
+Matplotlib offre ottimi strumenti per visualizzare la distribuzione dei dati utilizzando gli Istogrammi. Questo tipo di grafico è simile a un grafico a barre, dove la distribuzione può essere vista attraverso l'aumento e la diminuzione delle barre. Per costruire un istogramma, hai bisogno di dati numerici. Per costruire un Istogramma, puoi tracciare un grafico definendo il tipo come 'hist' per Istogramma. Questo grafico mostra la distribuzione della MaxBodyMass per l'intero intervallo di dati numerici del dataset. Dividendo l'array di dati in piccoli intervalli, può mostrare la distribuzione dei valori dei dati:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Come puoi vedere, la maggior parte dei 400+ uccelli in questo dataset rientra nella fascia sotto i 2000 per la loro massa corporea massima. Ottieni maggiori informazioni sui dati modificando il parametro `bins` a un numero più alto, ad esempio 30:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Questo grafico mostra la distribuzione in modo un po' più dettagliato. Un grafico meno sbilanciato a sinistra potrebbe essere creato assicurandoti di selezionare solo i dati entro un determinato intervallo:
+
+Filtra i tuoi dati per ottenere solo gli uccelli la cui massa corporea è inferiore a 60 e mostra 40 `bins`:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Prova altri filtri e punti dati. Per vedere la distribuzione completa dei dati, rimuovi il filtro `['MaxBodyMass']` per mostrare distribuzioni etichettate.
+
+L'istogramma offre anche alcune belle opzioni di colore e miglioramenti di etichettatura da provare:
+
+Crea un istogramma 2D per confrontare la relazione tra due distribuzioni. Confrontiamo `MaxBodyMass` vs. `MaxLength`. Matplotlib offre un modo integrato per mostrare la convergenza utilizzando colori più brillanti:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Sembra esserci una correlazione prevista tra questi due elementi lungo un asse previsto, con un punto particolarmente forte di convergenza:
+
+
+
+Gli istogrammi funzionano bene di default per i dati numerici. E se avessi bisogno di vedere le distribuzioni in base ai dati testuali?
+## Esplora il dataset per distribuzioni utilizzando dati testuali
+
+Questo dataset include anche buone informazioni sulla categoria degli uccelli, il loro genere, specie e famiglia, così come il loro stato di conservazione. Esploriamo queste informazioni di conservazione. Qual è la distribuzione degli uccelli in base al loro stato di conservazione?
+
+> ✅ Nel dataset, vengono utilizzati diversi acronimi per descrivere lo stato di conservazione. Questi acronimi provengono dalle [Categorie della Lista Rossa IUCN](https://www.iucnredlist.org/), un'organizzazione che cataloga lo stato delle specie.
+>
+> - CR: In pericolo critico
+> - EN: In pericolo
+> - EX: Estinto
+> - LC: Minima preoccupazione
+> - NT: Quasi minacciato
+> - VU: Vulnerabile
+
+Questi sono valori testuali, quindi sarà necessario effettuare una trasformazione per creare un istogramma. Utilizzando il dataframe filteredBirds, mostra il suo stato di conservazione accanto alla sua apertura alare minima. Cosa osservi?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Non sembra esserci una buona correlazione tra l'apertura alare minima e lo stato di conservazione. Testa altri elementi del dataset utilizzando questo metodo. Puoi provare diversi filtri. Trovi qualche correlazione?
+
+## Grafici di densità
+
+Potresti aver notato che gli istogrammi che abbiamo osservato finora sono 'a gradini' e non fluiscono in modo uniforme in un arco. Per mostrare un grafico di densità più fluido, puoi provare un grafico di densità.
+
+Per lavorare con i grafici di densità, familiarizza con una nuova libreria di grafici, [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html).
+
+Caricando Seaborn, prova un grafico di densità di base:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Puoi vedere come il grafico rispecchia quello precedente per i dati sull'apertura alare minima; è solo un po' più fluido. Secondo la documentazione di Seaborn, "Rispetto a un istogramma, il KDE può produrre un grafico meno disordinato e più interpretabile, specialmente quando si disegnano più distribuzioni. Ma ha il potenziale di introdurre distorsioni se la distribuzione sottostante è limitata o non uniforme. Come un istogramma, la qualità della rappresentazione dipende anche dalla selezione di buoni parametri di smoothing." [fonte](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) In altre parole, i valori anomali, come sempre, faranno comportare male i tuoi grafici.
+
+Se volessi rivedere quella linea frastagliata di MaxBodyMass nel secondo grafico che hai costruito, potresti renderla molto più fluida ricreandola utilizzando questo metodo:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Se volessi una linea fluida, ma non troppo fluida, modifica il parametro `bw_adjust`:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Leggi i parametri disponibili per questo tipo di grafico e sperimenta!
+
+Questo tipo di grafico offre visualizzazioni esplicative molto belle. Con poche righe di codice, ad esempio, puoi mostrare la densità della massa corporea massima per ordine di uccelli:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Puoi anche mappare la densità di diverse variabili in un unico grafico. Testa la MaxLength e la MinLength di un uccello rispetto al suo stato di conservazione:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Forse vale la pena indagare se il cluster di uccelli 'Vulnerabili' in base alle loro lunghezze sia significativo o meno.
+
+## 🚀 Sfida
+
+Gli istogrammi sono un tipo di grafico più sofisticato rispetto ai grafici a dispersione, a barre o a linee. Cerca su internet buoni esempi dell'uso degli istogrammi. Come vengono utilizzati, cosa dimostrano e in quali campi o aree di indagine tendono ad essere utilizzati?
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Revisione & Studio Autonomo
+
+In questa lezione, hai utilizzato Matplotlib e hai iniziato a lavorare con Seaborn per mostrare grafici più sofisticati. Fai una ricerca su `kdeplot` in Seaborn, una "curva di densità di probabilità continua in una o più dimensioni". Leggi la [documentazione](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) per capire come funziona.
+
+## Compito
+
+[Applica le tue competenze](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/it/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..3e9fafdd
--- /dev/null
+++ b/translations/it/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Applica le tue competenze
+
+## Istruzioni
+
+Finora hai lavorato con il dataset degli uccelli del Minnesota per scoprire informazioni sulle quantità di uccelli e sulla densità di popolazione. Metti in pratica queste tecniche provando un dataset diverso, magari preso da [Kaggle](https://www.kaggle.com/). Crea un notebook per raccontare una storia su questo dataset e assicurati di utilizzare istogrammi quando ne parli.
+
+## Criteri di valutazione
+
+Esemplare | Adeguato | Da migliorare
+--- | --- | --- |
+Viene presentato un notebook con annotazioni su questo dataset, inclusa la sua origine, e utilizza almeno 5 istogrammi per scoprire informazioni sui dati. | Viene presentato un notebook con annotazioni incomplete o errori. | Viene presentato un notebook senza annotazioni e con errori.
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/11-visualization-proportions/README.md b/translations/it/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..dfe23f52
--- /dev/null
+++ b/translations/it/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,204 @@
+
+# Visualizzare le Proporzioni
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualizzare le Proporzioni - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+In questa lezione, utilizzerai un dataset incentrato sulla natura per visualizzare le proporzioni, ad esempio quanti tipi diversi di funghi popolano un determinato dataset sui funghi. Esploriamo questi affascinanti funghi utilizzando un dataset proveniente da Audubon che elenca dettagli su 23 specie di funghi lamellati delle famiglie Agaricus e Lepiota. Sperimenterai con visualizzazioni accattivanti come:
+
+- Grafici a torta 🥧
+- Grafici a ciambella 🍩
+- Grafici a waffle 🧇
+
+> 💡 Un progetto molto interessante chiamato [Charticulator](https://charticulator.com) di Microsoft Research offre un'interfaccia drag and drop gratuita per le visualizzazioni di dati. In uno dei loro tutorial utilizzano anche questo dataset sui funghi! Puoi quindi esplorare i dati e imparare a usare la libreria contemporaneamente: [Tutorial Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Conosci i tuoi funghi 🍄
+
+I funghi sono davvero interessanti. Importiamo un dataset per studiarli:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Una tabella viene stampata con alcuni dati interessanti per l'analisi:
+
+
+| classe | forma-cappello | superficie-cappello | colore-cappello | lividi | odore | attacco-lamelle | spaziatura-lamelle | dimensione-lamelle | colore-lamelle | forma-gambo | radice-gambo | superficie-gambo-sopra-anello | superficie-gambo-sotto-anello | colore-gambo-sopra-anello | colore-gambo-sotto-anello | tipo-velo | colore-velo | numero-anelli | tipo-anello | colore-spore | popolazione | habitat |
+| --------- | -------------- | ------------------- | --------------- | ------- | -------- | ---------------- | ------------------ | ------------------ | -------------- | ----------- | ------------ | --------------------------- | --------------------------- | ------------------------- | ------------------------- | --------- | ----------- | ------------- | ----------- | ------------ | ----------- | ------- |
+| Velenoso | Convesso | Liscio | Marrone | Lividi | Pungente | Libero | Stretto | Stretto | Nero | Allargato | Uguale | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Nero | Sparso | Urbano |
+| Commestibile | Convesso | Liscio | Giallo | Lividi | Mandorla | Libero | Stretto | Largo | Nero | Allargato | Clava | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Marrone | Numeroso | Prati |
+| Commestibile | Campanulato | Liscio | Bianco | Lividi | Anice | Libero | Stretto | Largo | Marrone | Allargato | Clava | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Marrone | Numeroso | Prati |
+| Velenoso | Convesso | Squamoso | Bianco | Lividi | Pungente | Libero | Stretto | Stretto | Marrone | Allargato | Uguale | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Nero | Sparso | Urbano |
+
+Subito noti che tutti i dati sono testuali. Dovrai convertire questi dati per poterli utilizzare in un grafico. La maggior parte dei dati, infatti, è rappresentata come un oggetto:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+L'output è:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Prendi questi dati e converti la colonna 'classe' in una categoria:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Ora, se stampi i dati dei funghi, puoi vedere che sono stati raggruppati in categorie in base alla classe velenoso/commestibile:
+
+
+| | forma-cappello | superficie-cappello | colore-cappello | lividi | odore | attacco-lamelle | spaziatura-lamelle | dimensione-lamelle | colore-lamelle | forma-gambo | ... | superficie-gambo-sotto-anello | colore-gambo-sopra-anello | colore-gambo-sotto-anello | tipo-velo | colore-velo | numero-anelli | tipo-anello | colore-spore | popolazione | habitat |
+| --------- | -------------- | ------------------- | --------------- | ------- | ----- | ---------------- | ------------------ | ------------------ | -------------- | ----------- | --- | --------------------------- | ------------------------- | ------------------------- | --------- | ----------- | ------------- | ----------- | ------------ | ----------- | ------- |
+| classe | | | | | | | | | | | | | | | | | | | | | |
+| Commestibile | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Velenoso | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Seguendo l'ordine presentato in questa tabella per creare le etichette delle categorie di classe, puoi costruire un grafico a torta:
+
+## Torta!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+Voilà, un grafico a torta che mostra le proporzioni di questi dati in base alle due classi di funghi. È molto importante ottenere l'ordine corretto delle etichette, specialmente qui, quindi assicurati di verificare l'ordine con cui è costruito l'array delle etichette!
+
+
+
+## Ciambelle!
+
+Un grafico a torta un po' più interessante visivamente è il grafico a ciambella, che è un grafico a torta con un buco al centro. Esaminiamo i nostri dati utilizzando questo metodo.
+
+Dai un'occhiata ai vari habitat in cui crescono i funghi:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Qui stai raggruppando i tuoi dati per habitat. Ce ne sono 7 elencati, quindi usali come etichette per il tuo grafico a ciambella:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Questo codice disegna un grafico e un cerchio centrale, quindi aggiunge quel cerchio centrale al grafico. Modifica la larghezza del cerchio centrale cambiando `0.40` con un altro valore.
+
+I grafici a ciambella possono essere modificati in diversi modi per cambiare le etichette. Le etichette in particolare possono essere evidenziate per migliorarne la leggibilità. Scopri di più nei [documenti](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut).
+
+Ora che sai come raggruppare i tuoi dati e poi visualizzarli come torta o ciambella, puoi esplorare altri tipi di grafici. Prova un grafico a waffle, che è solo un modo diverso di esplorare le quantità.
+## Waffle!
+
+Un grafico di tipo 'waffle' è un modo diverso di visualizzare le quantità come una matrice 2D di quadrati. Prova a visualizzare le diverse quantità di colori del cappello dei funghi in questo dataset. Per farlo, devi installare una libreria di supporto chiamata [PyWaffle](https://pypi.org/project/pywaffle/) e utilizzare Matplotlib:
+
+```python
+pip install pywaffle
+```
+
+Seleziona un segmento dei tuoi dati da raggruppare:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Crea un grafico a waffle creando etichette e poi raggruppando i tuoi dati:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Utilizzando un grafico a waffle, puoi vedere chiaramente le proporzioni dei colori del cappello in questo dataset di funghi. Curiosamente, ci sono molti funghi con cappelli verdi!
+
+
+
+✅ Pywaffle supporta le icone all'interno dei grafici che utilizzano qualsiasi icona disponibile in [Font Awesome](https://fontawesome.com/). Fai qualche esperimento per creare un grafico a waffle ancora più interessante utilizzando icone invece di quadrati.
+
+In questa lezione, hai imparato tre modi per visualizzare le proporzioni. Prima, devi raggruppare i tuoi dati in categorie e poi decidere qual è il modo migliore per visualizzarli: torta, ciambella o waffle. Tutti sono deliziosi e offrono all'utente una panoramica immediata di un dataset.
+
+## 🚀 Sfida
+
+Prova a ricreare questi grafici gustosi in [Charticulator](https://charticulator.com).
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Revisione & Studio Autonomo
+
+A volte non è ovvio quando utilizzare un grafico a torta, a ciambella o a waffle. Ecco alcuni articoli da leggere su questo argomento:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Fai qualche ricerca per trovare ulteriori informazioni su questa decisione complessa.
+## Compito
+
+[Provalo in Excel](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/it/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..a05c899a
--- /dev/null
+++ b/translations/it/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Provalo in Excel
+
+## Istruzioni
+
+Sapevi che puoi creare grafici a ciambella, a torta e a waffle in Excel? Utilizzando un dataset a tua scelta, crea questi tre grafici direttamente in un foglio di calcolo Excel.
+
+## Griglia di valutazione
+
+| Esemplare | Adeguato | Da migliorare |
+| ------------------------------------------------------- | ------------------------------------------------ | ----------------------------------------------------- |
+| Viene presentato un foglio Excel con tutti e tre i grafici | Viene presentato un foglio Excel con due grafici | Viene presentato un foglio Excel con un solo grafico |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/12-visualization-relationships/README.md b/translations/it/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..84b1234d
--- /dev/null
+++ b/translations/it/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# Visualizzare le Relazioni: Tutto sul Miele 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualizzare le Relazioni - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Continuando con il focus sulla natura della nostra ricerca, scopriamo visualizzazioni interessanti per mostrare le relazioni tra i vari tipi di miele, secondo un dataset derivato dal [Dipartimento dell'Agricoltura degli Stati Uniti](https://www.nass.usda.gov/About_NASS/index.php).
+
+Questo dataset di circa 600 elementi mostra la produzione di miele in molti stati americani. Ad esempio, puoi osservare il numero di colonie, la resa per colonia, la produzione totale, le scorte, il prezzo per libbra e il valore del miele prodotto in un determinato stato dal 1998 al 2012, con una riga per anno per ogni stato.
+
+Sarà interessante visualizzare la relazione tra la produzione annuale di un determinato stato e, ad esempio, il prezzo del miele in quello stato. In alternativa, potresti visualizzare la relazione tra la resa di miele per colonia nei vari stati. Questo intervallo di anni copre il devastante 'CCD' o 'Colony Collapse Disorder', osservato per la prima volta nel 2006 (http://npic.orst.edu/envir/ccd.html), rendendo questo dataset particolarmente significativo da studiare. 🐝
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+In questa lezione, puoi utilizzare Seaborn, che hai già usato in precedenza, come una buona libreria per visualizzare le relazioni tra variabili. Particolarmente interessante è l'uso della funzione `relplot` di Seaborn, che consente di creare scatter plot e line plot per visualizzare rapidamente le '[relazioni statistiche](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)', permettendo al data scientist di comprendere meglio come le variabili si relazionano tra loro.
+
+## Scatterplot
+
+Usa uno scatterplot per mostrare come il prezzo del miele si è evoluto anno dopo anno, per stato. Seaborn, utilizzando `relplot`, raggruppa comodamente i dati per stato e visualizza i punti dati sia per dati categorici che numerici.
+
+Iniziamo importando i dati e Seaborn:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Noterai che i dati sul miele contengono diverse colonne interessanti, tra cui anno e prezzo per libbra. Esploriamo questi dati, raggruppati per stato americano:
+
+| stato | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | anno |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Crea uno scatterplot di base per mostrare la relazione tra il prezzo per libbra del miele e il suo stato di origine negli Stati Uniti. Fai in modo che l'asse `y` sia abbastanza alto da visualizzare tutti gli stati:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Ora, mostra gli stessi dati con una palette di colori che richiama il miele per evidenziare come il prezzo evolve nel corso degli anni. Puoi farlo aggiungendo un parametro 'hue' per mostrare il cambiamento anno dopo anno:
+
+> ✅ Scopri di più sulle [palette di colori che puoi usare in Seaborn](https://seaborn.pydata.org/tutorial/color_palettes.html) - prova una bellissima palette arcobaleno!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Con questo cambiamento di colori, puoi vedere chiaramente una forte progressione nel corso degli anni in termini di prezzo del miele per libbra. Infatti, se guardi un campione di dati per verificare (scegli un determinato stato, ad esempio l'Arizona), puoi osservare un pattern di aumento del prezzo anno dopo anno, con poche eccezioni:
+
+| stato | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | anno |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Un altro modo per visualizzare questa progressione è utilizzare la dimensione, anziché il colore. Per gli utenti daltonici, questa potrebbe essere un'opzione migliore. Modifica la tua visualizzazione per mostrare un aumento del prezzo attraverso un aumento della circonferenza dei punti:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Puoi vedere la dimensione dei punti aumentare gradualmente.
+
+
+
+È un semplice caso di domanda e offerta? A causa di fattori come il cambiamento climatico e il collasso delle colonie, c'è meno miele disponibile per l'acquisto anno dopo anno, e quindi il prezzo aumenta?
+
+Per scoprire una correlazione tra alcune delle variabili in questo dataset, esploriamo alcuni grafici a linee.
+
+## Grafici a linee
+
+Domanda: C'è un chiaro aumento del prezzo del miele per libbra anno dopo anno? Puoi scoprirlo facilmente creando un singolo grafico a linee:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Risposta: Sì, con alcune eccezioni intorno all'anno 2003:
+
+
+
+✅ Poiché Seaborn aggrega i dati attorno a una linea, visualizza "le misurazioni multiple per ogni valore x tracciando la media e l'intervallo di confidenza al 95% attorno alla media". [Fonte](https://seaborn.pydata.org/tutorial/relational.html). Questo comportamento dispendioso in termini di tempo può essere disabilitato aggiungendo `ci=None`.
+
+Domanda: Bene, nel 2003 possiamo anche vedere un picco nella fornitura di miele? E se guardassi la produzione totale anno dopo anno?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Risposta: Non proprio. Se guardi la produzione totale, sembra che sia effettivamente aumentata in quell'anno particolare, anche se, in generale, la quantità di miele prodotta è in calo durante questi anni.
+
+Domanda: In tal caso, cosa potrebbe aver causato quel picco nel prezzo del miele intorno al 2003?
+
+Per scoprirlo, puoi esplorare una griglia di faccette.
+
+## Griglie di faccette
+
+Le griglie di faccette prendono una faccetta del tuo dataset (nel nostro caso, puoi scegliere 'anno' per evitare di produrre troppe faccette). Seaborn può quindi creare un grafico per ciascuna di queste faccette delle coordinate x e y scelte per un confronto visivo più semplice. Il 2003 si distingue in questo tipo di confronto?
+
+Crea una griglia di faccette continuando a utilizzare `relplot` come raccomandato dalla [documentazione di Seaborn](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid).
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+In questa visualizzazione, puoi confrontare la resa per colonia e il numero di colonie anno dopo anno, fianco a fianco con un wrap impostato a 3 per le colonne:
+
+
+
+Per questo dataset, nulla si distingue particolarmente riguardo al numero di colonie e alla loro resa, anno dopo anno e stato per stato. C'è un modo diverso per cercare di trovare una correlazione tra queste due variabili?
+
+## Grafici a doppia linea
+
+Prova un grafico multilinea sovrapponendo due grafici a linee uno sopra l'altro, utilizzando il metodo 'despine' di Seaborn per rimuovere le spine superiore e destra, e utilizzando `ax.twinx` [derivato da Matplotlib](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html). Twinx consente a un grafico di condividere l'asse x e visualizzare due assi y. Quindi, visualizza la resa per colonia e il numero di colonie, sovrapposti:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+Sebbene nulla salti all'occhio intorno all'anno 2003, questo ci permette di concludere la lezione con una nota un po' più positiva: mentre il numero di colonie è complessivamente in calo, il numero di colonie si sta stabilizzando anche se la loro resa per colonia è in diminuzione.
+
+Forza, api, forza!
+
+🐝❤️
+## 🚀 Sfida
+
+In questa lezione, hai imparato un po' di più su altri usi degli scatterplot e delle griglie a linee, incluse le griglie di faccette. Sfida te stesso a creare una griglia di faccette utilizzando un dataset diverso, magari uno che hai usato prima di queste lezioni. Nota quanto tempo impiegano per essere create e quanto devi essere attento al numero di griglie che devi disegnare utilizzando queste tecniche.
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Revisione & Studio Autonomo
+
+I grafici a linee possono essere semplici o piuttosto complessi. Leggi un po' la [documentazione di Seaborn](https://seaborn.pydata.org/generated/seaborn.lineplot.html) sui vari modi in cui puoi costruirli. Prova a migliorare i grafici a linee che hai costruito in questa lezione con altri metodi elencati nella documentazione.
+## Compito
+
+[Immergiti nell'alveare](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/it/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..8047e929
--- /dev/null
+++ b/translations/it/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Esplora l'alveare
+
+## Istruzioni
+
+In questa lezione hai iniziato a esaminare un dataset riguardante le api e la loro produzione di miele in un periodo di tempo che ha visto una diminuzione complessiva della popolazione delle colonie di api. Approfondisci questo dataset e crea un notebook che possa raccontare la storia della salute della popolazione delle api, stato per stato e anno per anno. Scopri qualcosa di interessante su questo dataset?
+
+## Criteri di valutazione
+
+| Esemplare | Adeguato | Da migliorare |
+| ------------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------- | --------------------------------------- |
+| Viene presentato un notebook con una storia annotata con almeno tre grafici diversi che mostrano aspetti del dataset, stato per stato e anno per anno | Il notebook manca di uno di questi elementi | Il notebook manca di due di questi elementi |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/it/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..b1878369
--- /dev/null
+++ b/translations/it/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Creare Visualizzazioni Significative
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Visualizzazioni Significative - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+> "Se torturi i dati abbastanza a lungo, confesseranno qualsiasi cosa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Una delle competenze fondamentali di un data scientist è la capacità di creare una visualizzazione dei dati significativa che aiuti a rispondere alle domande che si potrebbero avere. Prima di visualizzare i dati, è necessario assicurarsi che siano stati puliti e preparati, come fatto nelle lezioni precedenti. Dopo di ciò, si può iniziare a decidere come presentare al meglio i dati.
+
+In questa lezione, esaminerai:
+
+1. Come scegliere il tipo di grafico giusto
+2. Come evitare grafici ingannevoli
+3. Come lavorare con i colori
+4. Come stilizzare i grafici per migliorarne la leggibilità
+5. Come creare soluzioni di grafici animati o in 3D
+6. Come costruire una visualizzazione creativa
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Scegliere il tipo di grafico giusto
+
+Nelle lezioni precedenti, hai sperimentato la creazione di vari tipi di visualizzazioni dei dati utilizzando Matplotlib e Seaborn. In generale, puoi selezionare il [tipo di grafico giusto](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) per la domanda che stai ponendo utilizzando questa tabella:
+
+| Necessità: | Dovresti usare: |
+| -------------------------- | ------------------------------- |
+| Mostrare tendenze nel tempo | Linea |
+| Confrontare categorie | Barre, Torta |
+| Confrontare totali | Torta, Barre impilate |
+| Mostrare relazioni | Dispersione, Linea, Facet, Linea doppia |
+| Mostrare distribuzioni | Dispersione, Istogramma, Box |
+| Mostrare proporzioni | Torta, Donut, Waffle |
+
+> ✅ A seconda della composizione dei tuoi dati, potrebbe essere necessario convertirli da testo a numerico per supportare un determinato tipo di grafico.
+
+## Evitare inganni
+
+Anche se un data scientist sceglie con attenzione il grafico giusto per i dati, ci sono molti modi in cui i dati possono essere mostrati per dimostrare un punto, spesso a scapito della verità. Esistono molti esempi di grafici e infografiche ingannevoli!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Clicca sull'immagine sopra per una conferenza sui grafici ingannevoli
+
+Questo grafico inverte l'asse X per mostrare l'opposto della verità, basandosi sulla data:
+
+
+
+[Questo grafico](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) è ancora più ingannevole, poiché l'occhio è attirato verso destra per concludere che, nel tempo, i casi di COVID sono diminuiti nelle varie contee. In realtà, se guardi attentamente le date, scopri che sono state riorganizzate per creare questa falsa tendenza al ribasso.
+
+
+
+Questo esempio noto utilizza il colore E un asse Y invertito per ingannare: invece di concludere che le morti per armi da fuoco sono aumentate dopo l'approvazione di una legislazione favorevole alle armi, l'occhio è ingannato a pensare che sia vero il contrario:
+
+
+
+Questo strano grafico mostra come le proporzioni possano essere manipolate, con effetti esilaranti:
+
+
+
+Confrontare l'incomparabile è un altro trucco discutibile. Esiste un [sito web meraviglioso](https://tylervigen.com/spurious-correlations) dedicato alle 'correlazioni spurie' che mostra 'fatti' correlando cose come il tasso di divorzi nel Maine e il consumo di margarina. Un gruppo su Reddit raccoglie anche gli [usi brutti](https://www.reddit.com/r/dataisugly/top/?t=all) dei dati.
+
+È importante capire quanto facilmente l'occhio possa essere ingannato da grafici ingannevoli. Anche se l'intenzione del data scientist è buona, la scelta di un tipo di grafico sbagliato, come un grafico a torta con troppe categorie, può risultare ingannevole.
+
+## Colore
+
+Hai visto nel grafico sulla 'violenza con armi da fuoco in Florida' come il colore possa aggiungere un ulteriore livello di significato ai grafici, specialmente quelli non progettati utilizzando librerie come Matplotlib e Seaborn, che offrono palette di colori verificate. Se stai creando un grafico manualmente, studia un po' la [teoria del colore](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Quando progetti grafici, tieni presente che l'accessibilità è un aspetto importante della visualizzazione. Alcuni utenti potrebbero essere daltonici - il tuo grafico è leggibile per utenti con disabilità visive?
+
+Fai attenzione quando scegli i colori per il tuo grafico, poiché il colore può trasmettere significati che potresti non intendere. Le 'signore rosa' nel grafico sull'altezza sopra trasmettono un significato distintamente 'femminile' che aggiunge alla stranezza del grafico stesso.
+
+Mentre il [significato del colore](https://colormatters.com/color-symbolism/the-meanings-of-colors) può variare in diverse parti del mondo e tendere a cambiare in base alla tonalità, generalmente i significati includono:
+
+| Colore | Significato |
+| ------- | ------------------- |
+| rosso | potere |
+| blu | fiducia, lealtà |
+| giallo | felicità, cautela |
+| verde | ecologia, fortuna, invidia |
+| viola | felicità |
+| arancione | vivacità |
+
+Se ti viene chiesto di creare un grafico con colori personalizzati, assicurati che i tuoi grafici siano accessibili e che il colore scelto coincida con il significato che vuoi trasmettere.
+
+## Stilizzare i grafici per la leggibilità
+
+I grafici non sono significativi se non sono leggibili! Prenditi un momento per considerare lo stile della larghezza e altezza del tuo grafico per adattarlo bene ai dati. Se una variabile (come tutti i 50 stati) deve essere mostrata, visualizzali verticalmente sull'asse Y se possibile, per evitare un grafico con scorrimento orizzontale.
+
+Etichetta gli assi, fornisci una legenda se necessario e offri tooltip per una migliore comprensione dei dati.
+
+Se i tuoi dati sono testuali e verbosi sull'asse X, puoi angolare il testo per migliorarne la leggibilità. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) offre la possibilità di creare grafici in 3D, se i tuoi dati lo supportano. Visualizzazioni sofisticate possono essere prodotte utilizzando `mpl_toolkits.mplot3d`.
+
+
+
+## Animazione e visualizzazione di grafici in 3D
+
+Alcune delle migliori visualizzazioni dei dati oggi sono animate. Shirley Wu ha creato visualizzazioni straordinarie con D3, come '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', dove ogni fiore rappresenta un film. Un altro esempio per il Guardian è 'bussed out', un'esperienza interattiva che combina visualizzazioni con Greensock e D3, oltre a un formato di articolo scrollytelling per mostrare come NYC gestisce il problema dei senzatetto bussando le persone fuori dalla città.
+
+
+
+> "Bussed Out: How America Moves its Homeless" dal [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualizzazioni di Nadieh Bremer & Shirley Wu
+
+Sebbene questa lezione non sia sufficiente per approfondire l'insegnamento di queste potenti librerie di visualizzazione, prova a utilizzare D3 in un'app Vue.js per visualizzare il libro "Le relazioni pericolose" come una rete sociale animata.
+
+> "Les Liaisons Dangereuses" è un romanzo epistolare, ovvero un romanzo presentato come una serie di lettere. Scritto nel 1782 da Choderlos de Laclos, racconta la storia delle manovre sociali spietate e moralmente corrotte di due protagonisti dell'aristocrazia francese del tardo XVIII secolo, il Visconte di Valmont e la Marchesa di Merteuil. Entrambi incontrano la loro fine, ma non senza infliggere un grande danno sociale. Il romanzo si sviluppa come una serie di lettere scritte a varie persone nei loro circoli, tramando vendette o semplicemente per creare problemi. Crea una visualizzazione di queste lettere per scoprire i principali protagonisti della narrazione, visivamente.
+
+Completerai un'app web che mostrerà una vista animata di questa rete sociale. Utilizza una libreria progettata per creare una [visualizzazione di una rete](https://github.com/emiliorizzo/vue-d3-network) utilizzando Vue.js e D3. Quando l'app è in esecuzione, puoi spostare i nodi sullo schermo per riorganizzare i dati.
+
+
+
+## Progetto: Creare un grafico per mostrare una rete utilizzando D3.js
+
+> Questa cartella della lezione include una cartella `solution` dove puoi trovare il progetto completato, per riferimento.
+
+1. Segui le istruzioni nel file README.md nella cartella radice dello starter. Assicurati di avere NPM e Node.js in esecuzione sulla tua macchina prima di installare le dipendenze del progetto.
+
+2. Apri la cartella `starter/src`. Troverai una cartella `assets` dove puoi trovare un file .json con tutte le lettere del romanzo, numerate, con annotazioni 'to' e 'from'.
+
+3. Completa il codice in `components/Nodes.vue` per abilitare la visualizzazione. Cerca il metodo chiamato `createLinks()` e aggiungi il seguente ciclo nidificato.
+
+Cicla attraverso l'oggetto .json per catturare i dati 'to' e 'from' delle lettere e costruire l'oggetto `links` affinché la libreria di visualizzazione possa utilizzarlo:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Esegui la tua app dal terminale (npm run serve) e goditi la visualizzazione!
+
+## 🚀 Sfida
+
+Fai un giro su internet per scoprire visualizzazioni ingannevoli. Come l'autore inganna l'utente, e lo fa intenzionalmente? Prova a correggere le visualizzazioni per mostrare come dovrebbero apparire.
+
+## [Quiz Post-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Revisione & Studio Autonomo
+
+Ecco alcuni articoli da leggere sulle visualizzazioni dei dati ingannevoli:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Dai un'occhiata a queste interessanti visualizzazioni di beni e artefatti storici:
+
+https://handbook.pubpub.org/
+
+Leggi questo articolo su come l'animazione può migliorare le tue visualizzazioni:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Compito
+
+[Creare una visualizzazione personalizzata](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/it/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..b960050b
--- /dev/null
+++ b/translations/it/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Crea la tua visualizzazione personalizzata
+
+## Istruzioni
+
+Utilizzando il campione di codice in questo progetto per creare un social network, crea dati simulati delle tue interazioni sociali. Potresti mappare il tuo utilizzo dei social media o realizzare un diagramma dei membri della tua famiglia. Crea un'app web interessante che mostri una visualizzazione unica di un social network.
+
+## Criteri di valutazione
+
+Eccellente | Adeguato | Da migliorare
+--- | --- | --- |
+Viene presentato un repository GitHub con codice che funziona correttamente (prova a distribuirlo come app web statica) e un README annotato che spiega il progetto | Il repository non funziona correttamente o non è ben documentato | Il repository non funziona correttamente e non è ben documentato
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/it/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..bea40b99
--- /dev/null
+++ b/translations/it/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Progetto di visualizzazione dati Dangerous Liaisons
+
+Per iniziare, assicurati di avere NPM e Node installati e funzionanti sulla tua macchina. Installa le dipendenze (npm install) e poi esegui il progetto localmente (npm run serve):
+
+## Configurazione del progetto
+```
+npm install
+```
+
+### Compilazione e ricaricamento automatico per lo sviluppo
+```
+npm run serve
+```
+
+### Compilazione e minimizzazione per la produzione
+```
+npm run build
+```
+
+### Analisi e correzione dei file
+```
+npm run lint
+```
+
+### Personalizza la configurazione
+Consulta [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/it/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..68ffcf49
--- /dev/null
+++ b/translations/it/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Progetto di visualizzazione dati Dangerous Liaisons
+
+Per iniziare, assicurati di avere NPM e Node installati e funzionanti sulla tua macchina. Installa le dipendenze (npm install) e poi esegui il progetto localmente (npm run serve):
+
+## Configurazione del progetto
+```
+npm install
+```
+
+### Compilazione e ricaricamento automatico per lo sviluppo
+```
+npm run serve
+```
+
+### Compilazione e minimizzazione per la produzione
+```
+npm run build
+```
+
+### Analisi e correzione dei file
+```
+npm run lint
+```
+
+### Personalizza la configurazione
+Consulta [Configuration Reference](https://cli.vuejs.org/config/).
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/it/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..6d9e6a8d
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,231 @@
+
+# Visualizzare le Quantità
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Visualizzare le Quantità - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+In questa lezione esplorerai come utilizzare alcune delle numerose librerie disponibili nei pacchetti R per imparare a creare visualizzazioni interessanti attorno al concetto di quantità. Utilizzando un dataset pulito sugli uccelli del Minnesota, potrai scoprire molti fatti interessanti sulla fauna locale.
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Osservare l'apertura alare con ggplot2
+Una libreria eccellente per creare grafici e diagrammi, sia semplici che sofisticati, è [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html). In termini generali, il processo di creazione di grafici utilizzando queste librerie include l'identificazione delle parti del dataframe da analizzare, l'esecuzione di eventuali trasformazioni necessarie sui dati, l'assegnazione dei valori degli assi x e y, la scelta del tipo di grafico da mostrare e infine la visualizzazione del grafico.
+
+`ggplot2` è un sistema per creare grafici in modo dichiarativo, basato sulla "Grammatica dei Grafici". La [Grammatica dei Grafici](https://en.wikipedia.org/wiki/Ggplot2) è uno schema generale per la visualizzazione dei dati che suddivide i grafici in componenti semantiche come scale e livelli. In altre parole, la facilità con cui è possibile creare grafici per dati univariati o multivariati con poco codice rende `ggplot2` il pacchetto più popolare per le visualizzazioni in R. L'utente indica a `ggplot2` come mappare le variabili agli aspetti estetici, quali primitive grafiche utilizzare, e `ggplot2` si occupa del resto.
+
+> ✅ Grafico = Dati + Aspetti Estetici + Geometria
+> - I dati si riferiscono al dataset
+> - Gli aspetti estetici indicano le variabili da analizzare (variabili x e y)
+> - La geometria si riferisce al tipo di grafico (grafico a linee, a barre, ecc.)
+
+Scegli la geometria (tipo di grafico) più adatta in base ai tuoi dati e alla storia che vuoi raccontare attraverso il grafico.
+
+> - Per analizzare tendenze: linee, colonne
+> - Per confrontare valori: barre, colonne, torta, scatterplot
+> - Per mostrare come le parti si relazionano al tutto: torta
+> - Per mostrare la distribuzione dei dati: scatterplot, barre
+> - Per mostrare relazioni tra valori: linee, scatterplot, bolle
+
+✅ Puoi anche consultare questo utile [cheatsheet](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) per ggplot2.
+
+## Creare un grafico a linee sui valori dell'apertura alare degli uccelli
+
+Apri la console R e importa il dataset.
+> Nota: Il dataset è memorizzato nella radice di questo repository nella cartella `/data`.
+
+Importiamo il dataset e osserviamo le prime righe (top 5) dei dati.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+L'intestazione dei dati contiene un mix di testo e numeri:
+
+| | Nome | NomeScientifico | Categoria | Ordine | Famiglia | Genere | StatoConservazione | LungMin | LungMax | MassaCorpMin | MassaCorpMax | AperturaMin | AperturaMax |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :------------------ | -------:| -------:| ------------:| ------------:| -----------:| -----------:|
+| 0 | Anatra fischiante ventre nero | Dendrocygna autumnalis | Anatre/Oche/UccelliAcquatici | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Anatra fischiante fulva | Dendrocygna bicolor | Anatre/Oche/UccelliAcquatici | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Oca delle nevi | Anser caerulescens | Anatre/Oche/UccelliAcquatici | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Oca di Ross | Anser rossii | Anatre/Oche/UccelliAcquatici | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Oca fronte bianca maggiore | Anser albifrons | Anatre/Oche/UccelliAcquatici | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Iniziamo a tracciare alcuni dati numerici utilizzando un semplice grafico a linee. Supponiamo di voler visualizzare l'apertura alare massima di questi interessanti uccelli.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Qui, installi il pacchetto `ggplot2` e lo importi nello spazio di lavoro utilizzando il comando `library("ggplot2")`. Per tracciare un grafico in ggplot, si utilizza la funzione `ggplot()` specificando il dataset e le variabili x e y come attributi. In questo caso, utilizziamo la funzione `geom_line()` poiché vogliamo creare un grafico a linee.
+
+
+
+Cosa noti immediatamente? Sembra esserci almeno un valore anomalo: che apertura alare! Un'apertura alare di oltre 2000 centimetri equivale a più di 20 metri: ci sono Pterodattili che volano in Minnesota? Indaghiamo.
+
+Anche se potresti fare un rapido ordinamento in Excel per trovare questi valori anomali, che probabilmente sono errori di battitura, continua il processo di visualizzazione lavorando direttamente dal grafico.
+
+Aggiungi etichette all'asse x per mostrare di quali uccelli si tratta:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+Specifichiamo l'angolo nel `theme` e indichiamo le etichette degli assi x e y con `xlab()` e `ylab()` rispettivamente. La funzione `ggtitle()` assegna un titolo al grafico.
+
+
+
+Anche con la rotazione delle etichette impostata a 45 gradi, ce ne sono troppe per essere leggibili. Proviamo una strategia diversa: etichettiamo solo i valori anomali e posizioniamo le etichette all'interno del grafico. Puoi utilizzare un grafico a dispersione per avere più spazio per le etichette:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Cosa succede qui? Hai utilizzato la funzione `geom_point()` per tracciare punti di dispersione. Con questo, hai aggiunto etichette per gli uccelli con `MaxWingspan > 500` e hai anche nascosto le etichette sull'asse x per ridurre il disordine nel grafico.
+
+Cosa scopri?
+
+
+
+## Filtrare i dati
+
+Sia l'Aquila Calva che il Falco delle Praterie, pur essendo probabilmente uccelli molto grandi, sembrano essere etichettati in modo errato, con uno zero in più aggiunto alla loro apertura alare massima. È improbabile che tu incontri un'Aquila Calva con un'apertura alare di 25 metri, ma se succede, faccelo sapere! Creiamo un nuovo dataframe senza quei due valori anomali:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Abbiamo creato un nuovo dataframe `birds_filtered` e poi tracciato un grafico a dispersione. Filtrando i valori anomali, i tuoi dati ora sono più coerenti e comprensibili.
+
+
+
+Ora che abbiamo un dataset più pulito almeno in termini di apertura alare, scopriamo di più su questi uccelli.
+
+Mentre i grafici a linee e a dispersione possono mostrare informazioni sui valori dei dati e le loro distribuzioni, vogliamo riflettere sui valori intrinseci di questo dataset. Potresti creare visualizzazioni per rispondere alle seguenti domande sulle quantità:
+
+> Quante categorie di uccelli ci sono e quali sono i loro numeri?
+> Quanti uccelli sono estinti, in pericolo, rari o comuni?
+> Quanti ce ne sono dei vari generi e ordini nella terminologia di Linneo?
+
+## Esplorare i grafici a barre
+
+I grafici a barre sono pratici quando devi mostrare raggruppamenti di dati. Esploriamo le categorie di uccelli presenti in questo dataset per vedere quale è la più comune per numero.
+Creiamo un grafico a barre sui dati filtrati.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+Nel seguente snippet, installiamo i pacchetti [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) e [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) per aiutare a manipolare e raggruppare i dati al fine di tracciare un grafico a barre impilate. Prima, raggruppi i dati per la `Categoria` degli uccelli e poi riassumi le colonne `MinLength`, `MaxLength`, `MinBodyMass`, `MaxBodyMass`, `MinWingspan`, `MaxWingspan`. Poi, tracci il grafico a barre utilizzando il pacchetto `ggplot2` specificando i colori per le diverse categorie e le etichette.
+
+
+
+Questo grafico a barre, tuttavia, è illeggibile perché ci sono troppi dati non raggruppati. Devi selezionare solo i dati che vuoi tracciare, quindi osserviamo la lunghezza degli uccelli in base alla loro categoria.
+
+Filtra i tuoi dati per includere solo la categoria degli uccelli.
+
+Poiché ci sono molte categorie, puoi visualizzare questo grafico verticalmente e regolare la sua altezza per includere tutti i dati:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Prima conti i valori unici nella colonna `Categoria` e poi li ordini in un nuovo dataframe `birds_count`. Questi dati ordinati vengono poi fattorizzati allo stesso livello in modo che vengano tracciati in ordine. Utilizzando `ggplot2`, tracci i dati in un grafico a barre. La funzione `coord_flip()` traccia barre orizzontali.
+
+
+
+Questo grafico a barre mostra una buona panoramica del numero di uccelli in ogni categoria. A colpo d'occhio, vedi che il maggior numero di uccelli in questa regione appartiene alla categoria Anatre/Oche/UccelliAcquatici. Il Minnesota è la "terra dei 10.000 laghi", quindi non è sorprendente!
+
+✅ Prova a fare altri conteggi su questo dataset. C'è qualcosa che ti sorprende?
+
+## Confrontare i dati
+
+Puoi provare diversi confronti di dati raggruppati creando nuovi assi. Prova un confronto della lunghezza massima di un uccello, basato sulla sua categoria:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+Raggruppiamo i dati `birds_filtered` per `Categoria` e poi tracciamo un grafico a barre.
+
+
+
+Nulla di sorprendente qui: i colibrì hanno la lunghezza massima più bassa rispetto ai Pellicani o alle Oche. È positivo quando i dati hanno senso logico!
+
+Puoi creare visualizzazioni più interessanti di grafici a barre sovrapponendo i dati. Sovrapponiamo la Lunghezza Minima e Massima su una determinata categoria di uccelli:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Sfida
+
+Questo dataset sugli uccelli offre una ricchezza di informazioni su diversi tipi di uccelli all'interno di un particolare ecosistema. Cerca su internet e vedi se riesci a trovare altri dataset sugli uccelli. Esercitati a costruire grafici e diagrammi su questi uccelli per scoprire fatti che non conoscevi.
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Revisione e Studio Autonomo
+
+Questa prima lezione ti ha fornito alcune informazioni su come utilizzare `ggplot2` per visualizzare quantità. Fai delle ricerche su altri modi per lavorare con i dataset per la visualizzazione. Cerca e scopri dataset che potresti visualizzare utilizzando altri pacchetti come [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) e [Plotly](https://github.com/plotly/plotly.R#readme).
+
+## Compito
+[Linee, Dispersioni e Barre](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/it/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..8c41d346
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Linee, Dispersioni e Barre
+
+## Istruzioni
+
+In questa lezione, hai lavorato con grafici a linee, diagrammi di dispersione e grafici a barre per mostrare fatti interessanti su questo dataset. In questo compito, approfondisci il dataset per scoprire un fatto su un determinato tipo di uccello. Ad esempio, crea uno script che visualizzi tutti i dati interessanti che puoi trovare sulle Oche delle Nevi. Usa i tre grafici menzionati sopra per raccontare una storia nel tuo notebook.
+
+## Griglia di Valutazione
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Uno script è presentato con buone annotazioni, una narrazione solida e grafici accattivanti | Lo script manca di uno di questi elementi | Lo script manca di due di questi elementi
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/it/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..d5cca221
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,184 @@
+
+# Visualizzare le distribuzioni
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Visualizzare le distribuzioni - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Nella lezione precedente, hai imparato alcuni fatti interessanti su un dataset riguardante gli uccelli del Minnesota. Hai individuato alcuni dati errati visualizzando i valori anomali e hai osservato le differenze tra le categorie di uccelli in base alla loro lunghezza massima.
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Esplora il dataset sugli uccelli
+
+Un altro modo per analizzare i dati è osservare la loro distribuzione, ovvero come i dati sono organizzati lungo un asse. Forse, ad esempio, vorresti sapere di più sulla distribuzione generale, per questo dataset, dell'apertura alare massima o della massa corporea massima degli uccelli del Minnesota.
+
+Scopriamo alcuni fatti sulle distribuzioni dei dati in questo dataset. Nel tuo console R, importa `ggplot2` e il database. Rimuovi i valori anomali dal database come fatto nell'argomento precedente.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | Nome | NomeScientifico | Categoria | Ordine | Famiglia | Genere | StatoConservazione | MinLunghezza | MaxLunghezza | MinMassaCorporea | MaxMassaCorporea | MinAperturaAlare | MaxAperturaAlare |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | ------------: | ------------: | ----------------: | ----------------: | ----------------: | ----------------: |
+| 0 | Anatra fischiante ventre nero | Dendrocygna autumnalis | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Anatra fischiante fulva | Dendrocygna bicolor | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Oca delle nevi | Anser caerulescens | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Oca di Ross | Anser rossii | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Oca fronte bianca maggiore | Anser albifrons | Anatre/Oche/Uccelli acquatici | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+In generale, puoi osservare rapidamente come i dati sono distribuiti utilizzando un grafico a dispersione, come fatto nella lezione precedente:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Questo fornisce una panoramica della distribuzione generale della lunghezza corporea per Ordine di uccelli, ma non è il modo ottimale per mostrare le vere distribuzioni. Questo compito è solitamente gestito creando un Istogramma.
+
+## Lavorare con gli istogrammi
+
+`ggplot2` offre ottimi strumenti per visualizzare la distribuzione dei dati utilizzando gli Istogrammi. Questo tipo di grafico è simile a un grafico a barre, dove la distribuzione può essere osservata attraverso l'aumento e la diminuzione delle barre. Per costruire un istogramma, hai bisogno di dati numerici. Per costruire un Istogramma, puoi tracciare un grafico definendo il tipo come 'hist' per Istogramma. Questo grafico mostra la distribuzione della MaxMassaCorporea per l'intero intervallo di dati numerici del dataset. Dividendo l'array di dati in intervalli più piccoli, può mostrare la distribuzione dei valori dei dati:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Come puoi vedere, la maggior parte dei 400+ uccelli in questo dataset rientra nella fascia sotto i 2000 per la loro Massa Corporea Massima. Ottieni maggiori informazioni sui dati modificando il parametro `bins` a un numero più alto, ad esempio 30:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Questo grafico mostra la distribuzione in modo un po' più dettagliato. Un grafico meno sbilanciato a sinistra potrebbe essere creato assicurandoti di selezionare solo i dati entro un determinato intervallo:
+
+Filtra i tuoi dati per ottenere solo gli uccelli la cui massa corporea è inferiore a 60 e mostra 30 `bins`:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Prova altri filtri e punti dati. Per vedere la distribuzione completa dei dati, rimuovi il filtro `['MaxBodyMass']` per mostrare distribuzioni etichettate.
+
+L'istogramma offre anche alcune belle opzioni di colore e miglioramenti di etichettatura da provare:
+
+Crea un istogramma 2D per confrontare la relazione tra due distribuzioni. Confrontiamo `MaxBodyMass` vs. `MaxLength`. `ggplot2` offre un modo integrato per mostrare la convergenza utilizzando colori più luminosi:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Sembra esserci una correlazione prevista tra questi due elementi lungo un asse previsto, con un punto particolarmente forte di convergenza:
+
+
+
+Gli istogrammi funzionano bene di default per i dati numerici. E se avessi bisogno di vedere le distribuzioni in base ai dati testuali?
+## Esplora il dataset per distribuzioni utilizzando dati testuali
+
+Questo dataset include anche buone informazioni sulla categoria degli uccelli e sul loro genere, specie e famiglia, così come sul loro stato di conservazione. Esploriamo queste informazioni di conservazione. Qual è la distribuzione degli uccelli in base al loro stato di conservazione?
+
+> ✅ Nel dataset, vengono utilizzati diversi acronimi per descrivere lo stato di conservazione. Questi acronimi provengono dalle [Categorie della Lista Rossa IUCN](https://www.iucnredlist.org/), un'organizzazione che cataloga lo stato delle specie.
+>
+> - CR: In pericolo critico
+> - EN: In pericolo
+> - EX: Estinto
+> - LC: Minima preoccupazione
+> - NT: Quasi minacciato
+> - VU: Vulnerabile
+
+Questi sono valori testuali, quindi sarà necessario effettuare una trasformazione per creare un istogramma. Utilizzando il dataframe filteredBirds, mostra il suo stato di conservazione insieme alla sua Apertura Alare Minima. Cosa osservi?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Non sembra esserci una buona correlazione tra apertura alare minima e stato di conservazione. Testa altri elementi del dataset utilizzando questo metodo. Puoi provare diversi filtri. Trovi qualche correlazione?
+
+## Grafici di densità
+
+Potresti aver notato che gli istogrammi che abbiamo osservato finora sono 'a gradini' e non fluiscono in modo uniforme in un arco. Per mostrare un grafico di densità più fluido, puoi provare un grafico di densità.
+
+Lavoriamo ora con i grafici di densità!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Puoi vedere come il grafico rispecchia quello precedente per i dati di Apertura Alare Minima; è solo un po' più fluido. Se volessi rivedere quella linea frastagliata della MaxMassaCorporea nel secondo grafico che hai costruito, potresti renderla molto più fluida ricreandola utilizzando questo metodo:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Se volessi una linea fluida, ma non troppo fluida, modifica il parametro `adjust`:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Leggi i parametri disponibili per questo tipo di grafico e sperimenta!
+
+Questo tipo di grafico offre visualizzazioni esplicative molto belle. Con poche righe di codice, ad esempio, puoi mostrare la densità della massa corporea massima per Ordine di uccelli:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Sfida
+
+Gli istogrammi sono un tipo di grafico più sofisticato rispetto ai grafici a dispersione, a barre o a linee. Cerca su internet buoni esempi dell'uso degli istogrammi. Come vengono utilizzati, cosa dimostrano e in quali campi o aree di indagine tendono ad essere utilizzati?
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Revisione e studio autonomo
+
+In questa lezione, hai utilizzato `ggplot2` e hai iniziato a lavorare per mostrare grafici più sofisticati. Fai una ricerca su `geom_density_2d()`, una "curva di densità di probabilità continua in una o più dimensioni". Leggi la [documentazione](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) per capire come funziona.
+
+## Compito
+
+[Applica le tue competenze](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/it/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..a6df8e18
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Applica le tue competenze
+
+## Istruzioni
+
+Finora hai lavorato con il dataset degli uccelli del Minnesota per scoprire informazioni sulle quantità di uccelli e sulla densità di popolazione. Metti in pratica l'applicazione di queste tecniche provando un dataset diverso, magari proveniente da [Kaggle](https://www.kaggle.com/). Crea uno script in R per raccontare una storia su questo dataset e assicurati di utilizzare istogrammi per discuterne.
+
+## Griglia di valutazione
+
+Esemplare | Adeguato | Da migliorare
+--- | --- | --- |
+Viene presentato uno script con annotazioni su questo dataset, inclusa la sua origine, e utilizza almeno 5 istogrammi per scoprire fatti sui dati. | Viene presentato uno script con annotazioni incomplete o con errori. | Viene presentato uno script senza annotazioni e con errori.
+
+---
+
+**Disclaimer (Avvertenza)**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di tenere presente che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali malintesi o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/it/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..4bc391c9
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,201 @@
+
+# Visualizzare le Proporzioni
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Visualizzare le Proporzioni - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+In questa lezione, utilizzerai un dataset incentrato sulla natura per visualizzare le proporzioni, come il numero di diversi tipi di funghi presenti in un dataset sui funghi. Esploriamo questi affascinanti funghi utilizzando un dataset proveniente da Audubon che elenca dettagli su 23 specie di funghi con lamelle delle famiglie Agaricus e Lepiota. Sperimenterai con visualizzazioni appetitose come:
+
+- Grafici a torta 🥧
+- Grafici a ciambella 🍩
+- Grafici a waffle 🧇
+
+> 💡 Un progetto molto interessante chiamato [Charticulator](https://charticulator.com) di Microsoft Research offre un'interfaccia gratuita drag and drop per le visualizzazioni di dati. In uno dei loro tutorial utilizzano anche questo dataset sui funghi! Puoi quindi esplorare i dati e imparare a usare la libreria contemporaneamente: [Tutorial Charticulator](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Conosci i tuoi funghi 🍄
+
+I funghi sono molto interessanti. Importiamo un dataset per studiarli:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Viene stampata una tabella con alcuni ottimi dati per l'analisi:
+
+
+| classe | forma-cappello | superficie-cappello | colore-cappello | lividi | odore | attacco-lamelle | spaziatura-lamelle | dimensione-lamelle | colore-lamelle | forma-gambo | radice-gambo | superficie-gambo-sopra-anello | superficie-gambo-sotto-anello | colore-gambo-sopra-anello | colore-gambo-sotto-anello | tipo-velo | colore-velo | numero-anelli | tipo-anello | colore-spore | popolazione | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Velenoso | Convesso | Liscio | Marrone | Lividi | Pungente | Libero | Vicino | Stretto | Nero | Allargato | Uguale | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Nero | Sparso | Urbano |
+| Commestibile | Convesso | Liscio | Giallo | Lividi | Mandorla | Libero | Vicino | Largo | Nero | Allargato | Clava | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Marrone | Numeroso | Erba |
+| Commestibile | Campanulato | Liscio | Bianco | Lividi | Anice | Libero | Vicino | Largo | Marrone | Allargato | Clava | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Marrone | Numeroso | Prati |
+| Velenoso | Convesso | Squamoso | Bianco | Lividi | Pungente | Libero | Vicino | Stretto | Marrone | Allargato | Uguale | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Nero | Sparso | Urbano
+| Commestibile | Convesso |Liscio | Verde | No Lividi| Nessuno |Libero | Affollato | Largo | Nero | Affusolato | Uguale | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Evanescente | Marrone | Abbondante | Erba
+|Commestibile | Convesso | Squamoso | Giallo | Lividi | Mandorla | Libero | Vicino | Largo | Marrone | Allargato | Clava | Liscio | Liscio | Bianco | Bianco | Parziale | Bianco | Uno | Pendente | Nero | Numeroso | Erba
+
+Subito noti che tutti i dati sono testuali. Dovrai convertire questi dati per poterli utilizzare in un grafico. La maggior parte dei dati, infatti, è rappresentata come un oggetto:
+
+```r
+names(mushrooms)
+```
+
+L'output è:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Prendi questi dati e converti la colonna 'classe' in una categoria:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+
+Ora, se stampi i dati sui funghi, puoi vedere che sono stati raggruppati in categorie secondo la classe velenoso/commestibile:
+```r
+View(grouped)
+```
+
+
+| classe | conteggio |
+| --------- | --------- |
+| Commestibile | 4208 |
+| Velenoso| 3916 |
+
+
+
+Seguendo l'ordine presentato in questa tabella per creare le etichette della categoria classe, puoi costruire un grafico a torta.
+
+## Torta!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+Voilà, un grafico a torta che mostra le proporzioni di questi dati secondo le due classi di funghi. È molto importante ottenere l'ordine corretto delle etichette, soprattutto qui, quindi assicurati di verificare l'ordine con cui viene costruito l'array delle etichette!
+
+
+
+## Ciambelle!
+
+Un grafico a torta un po' più interessante visivamente è il grafico a ciambella, che è un grafico a torta con un buco al centro. Esaminiamo i nostri dati utilizzando questo metodo.
+
+Dai un'occhiata ai vari habitat in cui crescono i funghi:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+L'output è:
+| habitat| conteggio |
+| --------- | --------- |
+| Erba | 2148 |
+| Foglie| 832 |
+| Prati | 292 |
+| Sentieri| 1144 |
+| Urbano | 368 |
+| Rifiuti| 192 |
+| Legno| 3148 |
+
+
+Qui stai raggruppando i tuoi dati per habitat. Ce ne sono 7 elencati, quindi usali come etichette per il tuo grafico a ciambella:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Questo codice utilizza due librerie: ggplot2 e webr. Utilizzando la funzione PieDonut della libreria webr, possiamo creare facilmente un grafico a ciambella!
+
+I grafici a ciambella in R possono essere creati anche utilizzando solo la libreria ggplot2. Puoi saperne di più [qui](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) e provarlo tu stesso.
+
+Ora che sai come raggruppare i tuoi dati e poi visualizzarli come torta o ciambella, puoi esplorare altri tipi di grafici. Prova un grafico a waffle, che è solo un modo diverso di esplorare le quantità.
+## Waffle!
+
+Un grafico di tipo 'waffle' è un modo diverso di visualizzare le quantità come un array 2D di quadrati. Prova a visualizzare le diverse quantità di colori del cappello dei funghi in questo dataset. Per farlo, devi installare una libreria di supporto chiamata [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) e usarla per generare la tua visualizzazione:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Seleziona un segmento dei tuoi dati da raggruppare:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Crea un grafico a waffle creando etichette e poi raggruppando i tuoi dati:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Utilizzando un grafico a waffle, puoi vedere chiaramente le proporzioni dei colori del cappello in questo dataset sui funghi. Interessante notare che ci sono molti funghi con cappelli verdi!
+
+
+
+In questa lezione, hai imparato tre modi per visualizzare le proporzioni. Prima, devi raggruppare i tuoi dati in categorie e poi decidere qual è il modo migliore per visualizzarli - torta, ciambella o waffle. Tutti sono deliziosi e gratificano l'utente con un'istantanea del dataset.
+
+## 🚀 Sfida
+
+Prova a ricreare questi grafici appetitosi in [Charticulator](https://charticulator.com).
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Revisione & Studio Autonomo
+
+A volte non è ovvio quando utilizzare un grafico a torta, ciambella o waffle. Ecco alcuni articoli da leggere su questo argomento:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Fai qualche ricerca per trovare ulteriori informazioni su questa decisione difficile.
+## Compito
+
+[Provalo in Excel](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/it/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..66fb73a0
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# Visualizzare le Relazioni: Tutto sul Miele 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|Visualizzare le Relazioni - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Continuando con il focus sulla natura della nostra ricerca, scopriamo visualizzazioni interessanti per mostrare le relazioni tra i vari tipi di miele, secondo un dataset derivato dal [Dipartimento dell'Agricoltura degli Stati Uniti](https://www.nass.usda.gov/About_NASS/index.php).
+
+Questo dataset di circa 600 elementi mostra la produzione di miele in molti stati americani. Ad esempio, è possibile osservare il numero di colonie, la resa per colonia, la produzione totale, le scorte, il prezzo per libbra e il valore del miele prodotto in un determinato stato dal 1998 al 2012, con una riga per anno per ogni stato.
+
+Sarà interessante visualizzare la relazione tra la produzione annuale di un determinato stato e, ad esempio, il prezzo del miele in quello stato. In alternativa, si potrebbe visualizzare la relazione tra la resa per colonia nei vari stati. Questo intervallo di anni copre il devastante 'CCD' o 'Colony Collapse Disorder', osservato per la prima volta nel 2006 (http://npic.orst.edu/envir/ccd.html), rendendo questo dataset particolarmente significativo da studiare. 🐝
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+In questa lezione, puoi utilizzare ggplot2, che hai già usato in precedenza, come una buona libreria per visualizzare le relazioni tra variabili. Particolarmente interessante è l'uso delle funzioni `geom_point` e `qplot` di ggplot2, che permettono di creare grafici a dispersione e grafici a linee per visualizzare rapidamente le '[relazioni statistiche](https://ggplot2.tidyverse.org/)', consentendo al data scientist di comprendere meglio come le variabili si relazionano tra loro.
+
+## Grafici a dispersione
+
+Utilizza un grafico a dispersione per mostrare come il prezzo del miele si è evoluto anno dopo anno, per stato. ggplot2, utilizzando `ggplot` e `geom_point`, raggruppa comodamente i dati per stato e visualizza i punti dati sia per dati categorici che numerici.
+
+Iniziamo importando i dati e Seaborn:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Noterai che i dati sul miele contengono diverse colonne interessanti, tra cui anno e prezzo per libbra. Esploriamo questi dati, raggruppati per stato americano:
+
+| stato | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | anno |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Crea un grafico a dispersione di base per mostrare la relazione tra il prezzo per libbra del miele e il suo stato di origine negli Stati Uniti. Fai in modo che l'asse `y` sia abbastanza alto da visualizzare tutti gli stati:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Ora, mostra gli stessi dati con una scala di colori che richiami il miele per evidenziare come il prezzo si evolve nel corso degli anni. Puoi farlo aggiungendo un parametro 'scale_color_gradientn' per mostrare il cambiamento anno dopo anno:
+
+> ✅ Scopri di più su [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) - prova uno schema di colori arcobaleno!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Con questo cambiamento di schema di colori, puoi vedere chiaramente una forte progressione nel corso degli anni in termini di prezzo del miele per libbra. Infatti, se guardi un sottoinsieme di dati per verificare (scegli uno stato, ad esempio l'Arizona), puoi osservare un pattern di aumento dei prezzi anno dopo anno, con poche eccezioni:
+
+| stato | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | anno |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Un altro modo per visualizzare questa progressione è utilizzare la dimensione, anziché il colore. Per gli utenti daltonici, questa potrebbe essere un'opzione migliore. Modifica la tua visualizzazione per mostrare un aumento del prezzo attraverso un aumento della circonferenza dei punti:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Puoi vedere la dimensione dei punti aumentare gradualmente.
+
+
+
+È un semplice caso di domanda e offerta? A causa di fattori come il cambiamento climatico e il collasso delle colonie, c'è meno miele disponibile per l'acquisto anno dopo anno, e quindi il prezzo aumenta?
+
+Per scoprire una correlazione tra alcune delle variabili in questo dataset, esploriamo alcuni grafici a linee.
+
+## Grafici a linee
+
+Domanda: C'è un chiaro aumento del prezzo del miele per libbra anno dopo anno? Puoi scoprirlo facilmente creando un singolo grafico a linee:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Risposta: Sì, con alcune eccezioni intorno all'anno 2003:
+
+
+
+Domanda: Bene, nel 2003 possiamo anche vedere un picco nella fornitura di miele? E se guardassimo la produzione totale anno dopo anno?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Risposta: Non proprio. Se guardi la produzione totale, sembra effettivamente essere aumentata in quell'anno particolare, anche se generalmente la quantità di miele prodotta è in calo durante questi anni.
+
+Domanda: In tal caso, cosa potrebbe aver causato quel picco nel prezzo del miele intorno al 2003?
+
+Per scoprirlo, puoi esplorare una griglia di faccette.
+
+## Griglie di faccette
+
+Le griglie di faccette prendono una faccetta del tuo dataset (nel nostro caso, puoi scegliere 'anno' per evitare di produrre troppe faccette). Seaborn può quindi creare un grafico per ciascuna di queste faccette delle coordinate x e y scelte per un confronto visivo più semplice. Il 2003 si distingue in questo tipo di confronto?
+
+Crea una griglia di faccette utilizzando `facet_wrap` come raccomandato dalla [documentazione di ggplot2](https://ggplot2.tidyverse.org/reference/facet_wrap.html).
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+In questa visualizzazione, puoi confrontare la resa per colonia e il numero di colonie anno dopo anno, fianco a fianco con un wrap impostato a 3 per le colonne:
+
+
+
+Per questo dataset, nulla di particolarmente evidente emerge riguardo al numero di colonie e alla loro resa, anno dopo anno e stato per stato. C'è un modo diverso per cercare una correlazione tra queste due variabili?
+
+## Grafici a linee doppie
+
+Prova un grafico multilinea sovrapponendo due grafici a linee uno sopra l'altro, utilizzando le funzioni `par` e `plot` di R. Tracceremo l'anno sull'asse x e visualizzeremo due assi y. Quindi, visualizza la resa per colonia e il numero di colonie, sovrapposti:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+Sebbene nulla salti all'occhio intorno all'anno 2003, questo ci permette di concludere la lezione con una nota un po' più positiva: mentre il numero di colonie è generalmente in calo, sembra stabilizzarsi anche se la loro resa per colonia diminuisce.
+
+Forza, api, forza!
+
+🐝❤️
+## 🚀 Sfida
+
+In questa lezione, hai imparato un po' di più su altri usi dei grafici a dispersione e delle griglie a linee, incluse le griglie di faccette. Sfida te stesso a creare una griglia di faccette utilizzando un dataset diverso, magari uno che hai usato prima di queste lezioni. Nota quanto tempo impiegano a essere create e quanto devi essere attento al numero di griglie che devi disegnare utilizzando queste tecniche.
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Revisione & Studio Autonomo
+
+I grafici a linee possono essere semplici o piuttosto complessi. Fai un po' di lettura nella [documentazione di ggplot2](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) sui vari modi in cui puoi costruirli. Prova a migliorare i grafici a linee che hai costruito in questa lezione con altri metodi elencati nei documenti.
+## Compito
+
+[Immergiti nell'alveare](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/it/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..6e7b7e10
--- /dev/null
+++ b/translations/it/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Creare Visualizzazioni Significative
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Visualizzazioni Significative - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+> "Se torturi i dati abbastanza a lungo, confesseranno qualsiasi cosa" -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Una delle competenze fondamentali di un data scientist è la capacità di creare una visualizzazione dei dati significativa che aiuti a rispondere alle domande che si potrebbero avere. Prima di visualizzare i dati, è necessario assicurarsi che siano stati puliti e preparati, come fatto nelle lezioni precedenti. Dopo di ciò, si può iniziare a decidere come presentare al meglio i dati.
+
+In questa lezione, esaminerai:
+
+1. Come scegliere il tipo di grafico giusto
+2. Come evitare grafici ingannevoli
+3. Come lavorare con i colori
+4. Come stilizzare i grafici per migliorarne la leggibilità
+5. Come creare soluzioni di grafici animati o in 3D
+6. Come costruire una visualizzazione creativa
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Scegliere il tipo di grafico giusto
+
+Nelle lezioni precedenti, hai sperimentato la creazione di vari tipi di visualizzazioni dei dati utilizzando Matplotlib e Seaborn. In generale, puoi selezionare il [tipo di grafico giusto](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) per la domanda che stai ponendo utilizzando questa tabella:
+
+| Necessità: | Dovresti usare: |
+| -------------------------- | ------------------------------- |
+| Mostrare tendenze nel tempo | Linea |
+| Confrontare categorie | Barre, Torta |
+| Confrontare totali | Torta, Barre impilate |
+| Mostrare relazioni | Dispersione, Linea, Facet, Linea doppia |
+| Mostrare distribuzioni | Dispersione, Istogramma, Box |
+| Mostrare proporzioni | Torta, Donut, Waffle |
+
+> ✅ A seconda della composizione dei tuoi dati, potrebbe essere necessario convertirli da testo a numerico per supportare un determinato tipo di grafico.
+
+## Evitare inganni
+
+Anche se un data scientist sceglie con attenzione il grafico giusto per i dati, ci sono molti modi in cui i dati possono essere visualizzati per dimostrare un punto, spesso a scapito della veridicità dei dati stessi. Esistono molti esempi di grafici e infografiche ingannevoli!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Clicca sull'immagine sopra per una conferenza sui grafici ingannevoli
+
+Questo grafico inverte l'asse X per mostrare l'opposto della verità, basandosi sulla data:
+
+
+
+[Questo grafico](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) è ancora più ingannevole, poiché l'occhio è attirato verso destra per concludere che, nel tempo, i casi di COVID siano diminuiti nelle varie contee. In realtà, se si osservano attentamente le date, si scopre che sono state riorganizzate per creare questa falsa tendenza al ribasso.
+
+
+
+Questo esempio noto utilizza il colore E un asse Y invertito per ingannare: invece di concludere che le morti per armi da fuoco siano aumentate dopo l'approvazione di una legislazione favorevole alle armi, l'occhio è ingannato a pensare che sia vero il contrario:
+
+
+
+Questo grafico strano mostra come le proporzioni possano essere manipolate, con effetti esilaranti:
+
+
+
+Confrontare l'incomparabile è un altro trucco discutibile. Esiste un [sito web meraviglioso](https://tylervigen.com/spurious-correlations) dedicato alle 'correlazioni spurie' che mostra 'fatti' correlando cose come il tasso di divorzi nel Maine e il consumo di margarina. Un gruppo su Reddit raccoglie anche [usi discutibili](https://www.reddit.com/r/dataisugly/top/?t=all) dei dati.
+
+È importante capire quanto facilmente l'occhio possa essere ingannato da grafici ingannevoli. Anche se l'intenzione del data scientist è buona, la scelta di un tipo di grafico sbagliato, come un grafico a torta con troppe categorie, può risultare ingannevole.
+
+## Colore
+
+Come visto nel grafico sulla 'violenza con armi da fuoco in Florida', il colore può aggiungere un ulteriore livello di significato ai grafici, specialmente quelli non progettati utilizzando librerie come ggplot2 e RColorBrewer, che offrono palette di colori validate. Se stai creando un grafico manualmente, studia un po' la [teoria del colore](https://colormatters.com/color-and-design/basic-color-theory).
+
+> ✅ Quando progetti grafici, tieni presente che l'accessibilità è un aspetto importante della visualizzazione. Alcuni utenti potrebbero essere daltonici - il tuo grafico è leggibile per utenti con disabilità visive?
+
+Fai attenzione quando scegli i colori per il tuo grafico, poiché il colore può trasmettere significati che potresti non intendere. Le 'signore rosa' nel grafico sull'altezza sopra trasmettono un significato distintamente 'femminile' che aggiunge alla stranezza del grafico stesso.
+
+Sebbene il [significato del colore](https://colormatters.com/color-symbolism/the-meanings-of-colors) possa variare in diverse parti del mondo e tendere a cambiare in base alla tonalità, generalmente i significati dei colori includono:
+
+| Colore | Significato |
+| ------ | ------------------- |
+| rosso | potere |
+| blu | fiducia, lealtà |
+| giallo | felicità, cautela |
+| verde | ecologia, fortuna, invidia |
+| viola | felicità |
+| arancione | vivacità |
+
+Se ti viene chiesto di creare un grafico con colori personalizzati, assicurati che i tuoi grafici siano accessibili e che il colore scelto coincida con il significato che vuoi trasmettere.
+
+## Stilizzare i grafici per la leggibilità
+
+I grafici non sono significativi se non sono leggibili! Prenditi un momento per considerare lo stile della larghezza e altezza del grafico per adattarlo bene ai tuoi dati. Se una variabile (come tutti i 50 stati) deve essere visualizzata, mostrala verticalmente sull'asse Y se possibile, per evitare un grafico con scorrimento orizzontale.
+
+Etichetta gli assi, fornisci una legenda se necessario e offri tooltip per una migliore comprensione dei dati.
+
+Se i tuoi dati sono testuali e verbosi sull'asse X, puoi angolare il testo per migliorarne la leggibilità. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html) offre la possibilità di creare grafici in 3D, se i tuoi dati lo supportano. Con esso è possibile produrre visualizzazioni sofisticate.
+
+
+
+## Animazione e visualizzazione di grafici in 3D
+
+Alcune delle migliori visualizzazioni dei dati oggi sono animate. Shirley Wu ha creato visualizzazioni straordinarie con D3, come '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)', dove ogni fiore rappresenta una visualizzazione di un film. Un altro esempio per il Guardian è 'bussed out', un'esperienza interattiva che combina visualizzazioni con Greensock e D3, oltre a un formato di articolo scrollytelling per mostrare come NYC gestisce il problema dei senzatetto bussando le persone fuori dalla città.
+
+
+
+> "Bussed Out: How America Moves its Homeless" dal [Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Visualizzazioni di Nadieh Bremer & Shirley Wu
+
+Sebbene questa lezione non sia sufficiente per approfondire l'insegnamento di queste potenti librerie di visualizzazione, prova a utilizzare D3 in un'app Vue.js per visualizzare il libro "Le relazioni pericolose" come una rete sociale animata.
+
+> "Les Liaisons Dangereuses" è un romanzo epistolare, ovvero un romanzo presentato come una serie di lettere. Scritto nel 1782 da Choderlos de Laclos, racconta le manovre sociali spietate e moralmente corrotte di due protagonisti in duello dell'aristocrazia francese del tardo XVIII secolo, il Visconte di Valmont e la Marchesa di Merteuil. Entrambi incontrano la loro fine, ma non senza infliggere un grande danno sociale. Il romanzo si sviluppa come una serie di lettere scritte a varie persone nei loro circoli, tramando vendette o semplicemente per creare problemi. Crea una visualizzazione di queste lettere per scoprire i principali protagonisti della narrazione, visivamente.
+
+Completerai un'app web che visualizzerà una vista animata di questa rete sociale. Utilizza una libreria progettata per creare una [visualizzazione di una rete](https://github.com/emiliorizzo/vue-d3-network) utilizzando Vue.js e D3. Quando l'app è in esecuzione, puoi spostare i nodi sullo schermo per riorganizzare i dati.
+
+
+
+## Progetto: Creare un grafico per mostrare una rete usando D3.js
+
+> Questa cartella della lezione include una cartella `solution` dove puoi trovare il progetto completato, per riferimento.
+
+1. Segui le istruzioni nel file README.md nella cartella radice dello starter. Assicurati di avere NPM e Node.js in esecuzione sulla tua macchina prima di installare le dipendenze del progetto.
+
+2. Apri la cartella `starter/src`. Troverai una cartella `assets` dove è presente un file .json con tutte le lettere del romanzo, numerate, con annotazioni 'to' e 'from'.
+
+3. Completa il codice in `components/Nodes.vue` per abilitare la visualizzazione. Cerca il metodo chiamato `createLinks()` e aggiungi il seguente ciclo nidificato.
+
+Cicla attraverso l'oggetto .json per catturare i dati 'to' e 'from' delle lettere e costruire l'oggetto `links` affinché la libreria di visualizzazione possa utilizzarlo:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Esegui la tua app dal terminale (npm run serve) e goditi la visualizzazione!
+
+## 🚀 Sfida
+
+Fai un giro su internet per scoprire visualizzazioni ingannevoli. Come l'autore inganna l'utente, e ciò è intenzionale? Prova a correggere le visualizzazioni per mostrare come dovrebbero apparire.
+
+## [Quiz Post-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Revisione & Studio Autonomo
+
+Ecco alcuni articoli da leggere sulle visualizzazioni dei dati ingannevoli:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Dai un'occhiata a queste interessanti visualizzazioni di beni e artefatti storici:
+
+https://handbook.pubpub.org/
+
+Leggi questo articolo su come l'animazione può migliorare le visualizzazioni:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Compito
+
+[Costruisci la tua visualizzazione personalizzata](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/3-Data-Visualization/README.md b/translations/it/3-Data-Visualization/README.md
new file mode 100644
index 00000000..4e76f4de
--- /dev/null
+++ b/translations/it/3-Data-Visualization/README.md
@@ -0,0 +1,42 @@
+
+# Visualizzazioni
+
+
+> Foto di Jenna Lee su Unsplash
+
+Visualizzare i dati è uno dei compiti più importanti per un data scientist. Un'immagine vale più di mille parole, e una visualizzazione può aiutarti a identificare tutti i tipi di aspetti interessanti nei tuoi dati, come picchi, valori anomali, raggruppamenti, tendenze e molto altro, che possono aiutarti a comprendere la storia che i tuoi dati stanno cercando di raccontare.
+
+In queste cinque lezioni, esplorerai dati provenienti dalla natura e creerai visualizzazioni interessanti e belle utilizzando varie tecniche.
+
+| Numero Argomento | Argomento | Lezione Collegata | Autore |
+| :--------------: | :-------: | :---------------: | :----: |
+| 1. | Visualizzare quantità | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Visualizzare distribuzioni | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Visualizzare proporzioni | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | Visualizzare relazioni | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Creare visualizzazioni significative | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Crediti
+
+Queste lezioni sulle visualizzazioni sono state scritte con 🌸 da [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) e [Vidushi Gupta](https://github.com/Vidushi-Gupta).
+
+🍯 I dati sulla produzione di miele negli Stati Uniti provengono dal progetto di Jessica Li su [Kaggle](https://www.kaggle.com/jessicali9530/honey-production). I [dati](https://usda.library.cornell.edu/concern/publications/rn301137d) sono derivati dal [Dipartimento dell'Agricoltura degli Stati Uniti](https://www.nass.usda.gov/About_NASS/index.php).
+
+🍄 I dati sui funghi provengono anche da [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) e sono stati rivisti da Hatteras Dunton. Questo dataset include descrizioni di campioni ipotetici corrispondenti a 23 specie di funghi con lamelle appartenenti alle famiglie Agaricus e Lepiota. I funghi sono tratti dalla guida "The Audubon Society Field Guide to North American Mushrooms" (1981). Questo dataset è stato donato a UCI ML 27 nel 1987.
+
+🦆 I dati sugli uccelli del Minnesota provengono da [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) e sono stati estratti da [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) da Hannah Collins.
+
+Tutti questi dataset sono concessi in licenza come [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/).
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/it/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..63012e0a
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Introduzione al Ciclo di Vita della Data Science
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Introduzione al Ciclo di Vita della Data Science - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz Pre-Lettura](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+A questo punto probabilmente hai capito che la data science è un processo. Questo processo può essere suddiviso in 5 fasi:
+
+- Acquisizione
+- Elaborazione
+- Analisi
+- Comunicazione
+- Manutenzione
+
+Questa lezione si concentra su 3 parti del ciclo di vita: acquisizione, elaborazione e manutenzione.
+
+
+> Foto di [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Acquisizione
+
+La prima fase del ciclo di vita è molto importante poiché le fasi successive dipendono da essa. È praticamente due fasi combinate in una: acquisire i dati e definire lo scopo e i problemi che devono essere affrontati.
+Definire gli obiettivi del progetto richiederà una comprensione più approfondita del problema o della domanda. Per prima cosa, dobbiamo identificare e coinvolgere coloro che hanno bisogno di risolvere il loro problema. Questi potrebbero essere stakeholder di un'azienda o sponsor del progetto, che possono aiutare a identificare chi o cosa trarrà beneficio da questo progetto, oltre a cosa e perché ne hanno bisogno. Un obiettivo ben definito dovrebbe essere misurabile e quantificabile per definire un risultato accettabile.
+
+Domande che un data scientist potrebbe porsi:
+- Questo problema è stato affrontato in precedenza? Cosa è stato scoperto?
+- Lo scopo e l'obiettivo sono chiari a tutti i coinvolti?
+- C'è ambiguità e come ridurla?
+- Quali sono i vincoli?
+- Come potrebbe apparire il risultato finale?
+- Quante risorse (tempo, persone, capacità computazionale) sono disponibili?
+
+Successivamente, bisogna identificare, raccogliere e infine esplorare i dati necessari per raggiungere gli obiettivi definiti. In questa fase di acquisizione, i data scientist devono anche valutare la quantità e la qualità dei dati. Questo richiede un'esplorazione dei dati per confermare che ciò che è stato acquisito supporti il raggiungimento del risultato desiderato.
+
+Domande che un data scientist potrebbe porsi sui dati:
+- Quali dati sono già disponibili?
+- Chi possiede questi dati?
+- Quali sono le preoccupazioni relative alla privacy?
+- Ho abbastanza dati per risolvere questo problema?
+- I dati sono di qualità accettabile per questo problema?
+- Se scopro ulteriori informazioni attraverso questi dati, dovremmo considerare di cambiare o ridefinire gli obiettivi?
+
+## Elaborazione
+
+La fase di elaborazione del ciclo di vita si concentra sulla scoperta di pattern nei dati e sulla modellazione. Alcune tecniche utilizzate in questa fase richiedono metodi statistici per individuare i pattern. Tipicamente, questo sarebbe un compito tedioso per un essere umano con un grande set di dati e si farà affidamento sui computer per accelerare il processo. Questa fase è anche il punto in cui la data science e il machine learning si intersecano. Come hai appreso nella prima lezione, il machine learning è il processo di costruzione di modelli per comprendere i dati. I modelli sono una rappresentazione della relazione tra variabili nei dati che aiutano a prevedere i risultati.
+
+Tecniche comuni utilizzate in questa fase sono trattate nel curriculum ML for Beginners. Segui i link per saperne di più:
+
+- [Classificazione](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Organizzare i dati in categorie per un uso più efficiente.
+- [Clustering](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Raggruppare i dati in gruppi simili.
+- [Regressione](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Determinare le relazioni tra variabili per prevedere o stimare valori.
+
+## Manutenzione
+
+Nel diagramma del ciclo di vita, potresti aver notato che la manutenzione si trova tra acquisizione ed elaborazione. La manutenzione è un processo continuo di gestione, archiviazione e protezione dei dati durante l'intero processo di un progetto e dovrebbe essere considerata per tutta la durata del progetto.
+
+### Archiviazione dei Dati
+
+Le considerazioni su come e dove i dati vengono archiviati possono influenzare il costo della loro archiviazione così come le prestazioni di accesso ai dati. Decisioni come queste non sono probabilmente prese solo da un data scientist, ma potrebbero trovarsi a fare scelte su come lavorare con i dati in base a come sono archiviati.
+
+Ecco alcuni aspetti dei moderni sistemi di archiviazione dei dati che possono influenzare queste scelte:
+
+**On premise vs off premise vs cloud pubblico o privato**
+
+On premise si riferisce all'hosting e alla gestione dei dati su apparecchiature proprie, come possedere un server con dischi rigidi che archiviano i dati, mentre off premise si basa su apparecchiature che non si possiedono, come un data center. Il cloud pubblico è una scelta popolare per archiviare dati che non richiede conoscenze su come o dove esattamente i dati sono archiviati, dove pubblico si riferisce a un'infrastruttura unificata sottostante condivisa da tutti coloro che utilizzano il cloud. Alcune organizzazioni hanno politiche di sicurezza rigorose che richiedono l'accesso completo alle apparecchiature dove i dati sono ospitati e si affidano a un cloud privato che fornisce servizi cloud propri. Imparerai di più sui dati nel cloud nelle [lezioni successive](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud).
+
+**Dati freddi vs dati caldi**
+
+Quando alleni i tuoi modelli, potresti aver bisogno di più dati di addestramento. Se sei soddisfatto del tuo modello, arriveranno più dati affinché il modello svolga il suo scopo. In ogni caso, il costo di archiviazione e accesso ai dati aumenterà man mano che ne accumuli di più. Separare i dati raramente utilizzati, noti come dati freddi, dai dati frequentemente accessibili, noti come dati caldi, può essere un'opzione di archiviazione più economica tramite hardware o servizi software. Se i dati freddi devono essere accessibili, potrebbe richiedere un po' più di tempo per recuperarli rispetto ai dati caldi.
+
+### Gestione dei Dati
+
+Mentre lavori con i dati, potresti scoprire che alcuni di essi devono essere puliti utilizzando alcune delle tecniche trattate nella lezione dedicata alla [preparazione dei dati](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) per costruire modelli accurati. Quando arrivano nuovi dati, sarà necessario applicare alcune delle stesse tecniche per mantenere la coerenza nella qualità. Alcuni progetti prevedono l'uso di uno strumento automatizzato per la pulizia, l'aggregazione e la compressione prima che i dati vengano spostati nella loro posizione finale. Azure Data Factory è un esempio di uno di questi strumenti.
+
+### Protezione dei Dati
+
+Uno degli obiettivi principali della protezione dei dati è garantire che coloro che lavorano con essi abbiano il controllo su ciò che viene raccolto e sul contesto in cui viene utilizzato. Mantenere i dati sicuri implica limitare l'accesso solo a chi ne ha bisogno, rispettare le leggi e i regolamenti locali, oltre a mantenere standard etici, come trattato nella [lezione sull'etica](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics).
+
+Ecco alcune cose che un team potrebbe fare con la sicurezza in mente:
+- Confermare che tutti i dati siano crittografati
+- Fornire ai clienti informazioni su come vengono utilizzati i loro dati
+- Rimuovere l'accesso ai dati a chi ha lasciato il progetto
+- Consentire solo a determinati membri del progetto di modificare i dati
+
+## 🚀 Sfida
+
+Esistono molte versioni del Ciclo di Vita della Data Science, dove ogni fase può avere nomi e numero di stadi diversi ma conterrà gli stessi processi menzionati in questa lezione.
+
+Esplora il [Ciclo di Vita del Team Data Science Process](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) e il [Processo standard cross-industriale per il data mining](https://www.datascience-pm.com/crisp-dm-2/). Nomina 3 somiglianze e differenze tra i due.
+
+|Team Data Science Process (TDSP)|Processo standard cross-industriale per il data mining (CRISP-DM)|
+|--|--|
+| |  |
+| Immagine di [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Immagine di [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Quiz Post-Lettura](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Revisione e Studio Autonomo
+
+Applicare il Ciclo di Vita della Data Science coinvolge diversi ruoli e compiti, dove alcuni possono concentrarsi su particolari parti di ogni fase. Il Team Data Science Process fornisce alcune risorse che spiegano i tipi di ruoli e compiti che qualcuno potrebbe avere in un progetto.
+
+* [Ruoli e compiti del Team Data Science Process](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Eseguire compiti di data science: esplorazione, modellazione e distribuzione](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Compito
+
+[Valutare un Dataset](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/it/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..224940d2
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,37 @@
+
+# Valutare un Dataset
+
+Un cliente si è rivolto al tuo team per ricevere aiuto nell'analisi delle abitudini stagionali di spesa dei clienti dei taxi a New York City.
+
+Vogliono sapere: **I passeggeri dei taxi gialli a New York City danno mance maggiori ai conducenti in inverno o in estate?**
+
+Il tuo team si trova nella fase di [Raccolta](Readme.md#Capturing) del Ciclo di Vita della Data Science e tu sei incaricato di gestire il dataset. Ti è stato fornito un notebook e [dati](../../../../data/taxi.csv) da esplorare.
+
+In questa directory è presente un [notebook](notebook.ipynb) che utilizza Python per caricare i dati sui viaggi dei taxi gialli dal [NYC Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets).
+Puoi anche aprire il file dei dati dei taxi in un editor di testo o in un software per fogli di calcolo come Excel.
+
+## Istruzioni
+
+- Valuta se i dati in questo dataset possono rispondere alla domanda.
+- Esplora il [catalogo dei dati aperti di NYC](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93). Identifica un dataset aggiuntivo che potrebbe essere utile per rispondere alla domanda del cliente.
+- Scrivi 3 domande che faresti al cliente per ottenere maggiori chiarimenti e una migliore comprensione del problema.
+
+Consulta il [dizionario del dataset](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) e la [guida per l'utente](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) per ulteriori informazioni sui dati.
+
+## Rubrica
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | --- |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/it/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..be7a1210
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,61 @@
+
+# Il Ciclo di Vita della Data Science: Analisi
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Ciclo di Vita della Data Science: Analisi - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+## Quiz Pre-Lezione
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+L'analisi nel ciclo di vita dei dati conferma che i dati possono rispondere alle domande proposte o risolvere un problema specifico. Questo passaggio si concentra anche sul verificare che un modello stia affrontando correttamente queste domande e problemi. Questa lezione è focalizzata sull'Analisi Esplorativa dei Dati (Exploratory Data Analysis o EDA), che comprende tecniche per definire caratteristiche e relazioni all'interno dei dati e può essere utilizzata per preparare i dati alla modellazione.
+
+Utilizzeremo un dataset di esempio da [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) per mostrare come applicare queste tecniche con Python e la libreria Pandas. Questo dataset contiene un conteggio di alcune parole comuni trovate nelle email, le cui fonti sono anonime. Usa il [notebook](notebook.ipynb) in questa directory per seguire il contenuto.
+
+## Analisi Esplorativa dei Dati
+
+La fase di acquisizione del ciclo di vita è dove i dati vengono raccolti insieme ai problemi e alle domande da affrontare, ma come possiamo sapere se i dati possono supportare il risultato finale?
+Ricorda che un data scientist potrebbe porsi le seguenti domande quando acquisisce i dati:
+- Ho abbastanza dati per risolvere questo problema?
+- I dati sono di qualità accettabile per questo problema?
+- Se scopro ulteriori informazioni attraverso questi dati, dovremmo considerare di cambiare o ridefinire gli obiettivi?
+
+L'Analisi Esplorativa dei Dati è il processo di familiarizzazione con i dati e può essere utilizzata per rispondere a queste domande, oltre a identificare le sfide nel lavorare con il dataset. Concentriamoci su alcune delle tecniche utilizzate per raggiungere questi obiettivi.
+
+## Profilazione dei Dati, Statistiche Descrittive e Pandas
+Come possiamo valutare se abbiamo abbastanza dati per risolvere questo problema? La profilazione dei dati può riassumere e raccogliere alcune informazioni generali sul nostro dataset attraverso tecniche di statistiche descrittive. La profilazione dei dati ci aiuta a capire cosa è disponibile, mentre le statistiche descrittive ci aiutano a comprendere quante cose sono disponibili.
+
+In alcune delle lezioni precedenti, abbiamo utilizzato Pandas per fornire alcune statistiche descrittive con la funzione [`describe()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html). Questa funzione fornisce il conteggio, i valori massimi e minimi, la media, la deviazione standard e i quantili sui dati numerici. Utilizzare statistiche descrittive come la funzione `describe()` può aiutarti a valutare quanto hai e se hai bisogno di più dati.
+
+## Campionamento e Interrogazione
+Esplorare tutto in un grande dataset può richiedere molto tempo ed è un compito che di solito viene lasciato a un computer. Tuttavia, il campionamento è uno strumento utile per comprendere i dati e permette di avere una migliore comprensione di ciò che è presente nel dataset e di cosa rappresenta. Con un campione, puoi applicare probabilità e statistiche per trarre alcune conclusioni generali sui tuoi dati. Sebbene non ci sia una regola definita su quanto campionare, è importante notare che più dati campioni, più precise saranno le generalizzazioni che puoi fare sui dati.
+
+Pandas ha la funzione [`sample()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) nella sua libreria, dove puoi passare un argomento per specificare quanti campioni casuali desideri ricevere e utilizzare.
+
+L'interrogazione generale dei dati può aiutarti a rispondere a domande e teorie generali che potresti avere. A differenza del campionamento, le interrogazioni ti permettono di avere controllo e concentrarti su parti specifiche dei dati su cui hai domande. La funzione [`query()`](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html) nella libreria Pandas ti consente di selezionare colonne e ottenere risposte semplici sui dati attraverso le righe recuperate.
+
+## Esplorare con Visualizzazioni
+Non è necessario aspettare che i dati siano completamente puliti e analizzati per iniziare a creare visualizzazioni. Infatti, avere una rappresentazione visiva durante l'esplorazione può aiutare a identificare schemi, relazioni e problemi nei dati. Inoltre, le visualizzazioni forniscono un mezzo di comunicazione con coloro che non sono coinvolti nella gestione dei dati e possono rappresentare un'opportunità per condividere e chiarire ulteriori domande che non sono state affrontate nella fase di acquisizione. Consulta la [sezione sulle Visualizzazioni](../../../../../../../../../3-Data-Visualization) per saperne di più su alcuni modi popolari per esplorare visivamente.
+
+## Esplorare per identificare incoerenze
+Tutti gli argomenti trattati in questa lezione possono aiutare a identificare valori mancanti o incoerenti, ma Pandas fornisce funzioni per controllare alcuni di questi. [isna() o isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) possono controllare i valori mancanti. Un aspetto importante dell'esplorazione di questi valori nei tuoi dati è capire perché si sono verificati in primo luogo. Questo può aiutarti a decidere quali [azioni intraprendere per risolverli](/2-Working-With-Data/08-data-preparation/notebook.ipynb).
+
+## [Quiz Pre-Lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Compito
+
+[Esplorare per risposte](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/it/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..be787cee
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Esplorare per trovare risposte
+
+Questa è una continuazione del [compito](../14-Introduction/assignment.md) della lezione precedente, in cui abbiamo dato un'occhiata veloce al set di dati. Ora esamineremo i dati in modo più approfondito.
+
+Ancora una volta, la domanda che il cliente vuole sapere è: **I passeggeri dei taxi gialli a New York City danno mance ai conducenti di più in inverno o in estate?**
+
+Il tuo team si trova nella fase di [Analisi](README.md) del Ciclo di Vita della Data Science, dove sei responsabile di condurre un'analisi esplorativa dei dati sul set di dati. Ti è stato fornito un notebook e un set di dati che contiene 200 transazioni di taxi da gennaio e luglio 2019.
+
+## Istruzioni
+
+In questa directory troverai un [notebook](assignment.ipynb) e i dati della [Taxi & Limousine Commission](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets). Consulta il [dizionario del set di dati](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) e la [guida per l'utente](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) per maggiori informazioni sui dati.
+
+Utilizza alcune delle tecniche apprese in questa lezione per condurre la tua analisi esplorativa dei dati nel notebook (puoi aggiungere celle se necessario) e rispondi alle seguenti domande:
+
+- Quali altri fattori nei dati potrebbero influenzare l'importo della mancia?
+- Quali colonne probabilmente non saranno necessarie per rispondere alle domande del cliente?
+- Sulla base di ciò che è stato fornito finora, i dati sembrano fornire qualche evidenza di un comportamento stagionale nelle mance?
+
+## Griglia di valutazione
+
+Esemplare | Adeguato | Da migliorare
+--- | --- | ---
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/16-communication/README.md b/translations/it/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..7c0d25b8
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,229 @@
+
+# Il Ciclo di Vita della Data Science: Comunicazione
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Ciclo di Vita della Data Science: Comunicazione - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+## [Quiz Pre-Lettura](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Metti alla prova la tua conoscenza di ciò che verrà con il quiz pre-lettura sopra!
+
+# Introduzione
+
+### Cos'è la Comunicazione?
+Iniziamo questa lezione definendo cosa significa comunicare. **Comunicare significa trasmettere o scambiare informazioni.** Le informazioni possono essere idee, pensieri, sentimenti, messaggi, segnali nascosti, dati – qualsiasi cosa che un **_mittente_** (qualcuno che invia informazioni) vuole che un **_ricevente_** (qualcuno che riceve informazioni) comprenda. In questa lezione, ci riferiremo ai mittenti come comunicatori e ai riceventi come pubblico.
+
+### Comunicazione dei Dati e Narrazione
+Comprendiamo che, quando comunichiamo, l'obiettivo è trasmettere o scambiare informazioni. Ma quando comunichiamo dati, il tuo obiettivo non dovrebbe essere semplicemente passare numeri al tuo pubblico. Il tuo obiettivo dovrebbe essere comunicare una storia informata dai tuoi dati – la comunicazione efficace dei dati e la narrazione vanno di pari passo. Il tuo pubblico è più propenso a ricordare una storia che racconti, piuttosto che un numero che fornisci. Più avanti in questa lezione, esamineremo alcuni modi per utilizzare la narrazione per comunicare i tuoi dati in modo più efficace.
+
+### Tipi di Comunicazione
+Durante questa lezione verranno discussi due diversi tipi di comunicazione: Comunicazione Unidirezionale e Comunicazione Bidirezionale.
+
+**La comunicazione unidirezionale** avviene quando un mittente invia informazioni a un ricevente, senza alcun feedback o risposta. Vediamo esempi di comunicazione unidirezionale ogni giorno – in email di massa, quando le notizie riportano le storie più recenti, o anche quando arriva una pubblicità televisiva che ti informa sul perché il loro prodotto è fantastico. In ciascuno di questi casi, il mittente non cerca uno scambio di informazioni. Sta solo cercando di trasmettere o fornire informazioni.
+
+**La comunicazione bidirezionale** avviene quando tutte le parti coinvolte agiscono sia come mittenti che come riceventi. Un mittente inizierà comunicando con un ricevente, e il ricevente fornirà feedback o una risposta. La comunicazione bidirezionale è ciò che tradizionalmente pensiamo quando parliamo di comunicazione. Di solito pensiamo a persone impegnate in una conversazione – di persona, al telefono, sui social media o tramite messaggi di testo.
+
+Quando comunichi dati, ci saranno casi in cui utilizzerai la comunicazione unidirezionale (pensa a una presentazione in una conferenza o a un grande gruppo dove non verranno poste domande direttamente dopo) e ci saranno casi in cui utilizzerai la comunicazione bidirezionale (pensa a utilizzare i dati per persuadere alcuni stakeholder a sostenere un progetto o per convincere un collega che vale la pena dedicare tempo e sforzi a costruire qualcosa di nuovo).
+
+# Comunicazione Efficace
+
+### Le tue responsabilità come comunicatore
+Quando comunichi, è tuo compito assicurarti che il tuo ricevente/i ricevano le informazioni che vuoi trasmettere. Quando comunichi dati, non vuoi solo che i tuoi riceventi assimilino numeri, vuoi che assimilino una storia informata dai tuoi dati. Un buon comunicatore di dati è un buon narratore.
+
+Come si racconta una storia con i dati? Ci sono infiniti modi – ma di seguito ne parleremo di 6 in questa lezione.
+1. Comprendi il tuo pubblico, il tuo canale e il tuo metodo di comunicazione
+2. Parti con l'obiettivo finale in mente
+3. Affrontalo come una vera storia
+4. Usa parole e frasi significative
+5. Usa l'emozione
+
+Ognuna di queste strategie è spiegata in dettaglio qui sotto.
+
+### 1. Comprendi il tuo pubblico, il tuo canale e il tuo metodo di comunicazione
+Il modo in cui comunichi con i membri della tua famiglia è probabilmente diverso dal modo in cui comunichi con i tuoi amici. Probabilmente usi parole e frasi diverse che le persone con cui stai parlando sono più propense a comprendere. Dovresti adottare lo stesso approccio quando comunichi dati. Pensa a chi stai comunicando. Pensa ai loro obiettivi e al contesto che hanno riguardo alla situazione che stai spiegando loro.
+
+Puoi probabilmente raggruppare la maggior parte del tuo pubblico in una categoria. In un articolo di _Harvard Business Review_, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” (Come raccontare una storia con i dati), Jim Stikeleather, Stratega Esecutivo di Dell, identifica cinque categorie di pubblico.
+
+ - **Principiante**: prima esposizione all'argomento, ma non vuole
+ semplificazioni eccessive
+ - **Generalista**: consapevole dell'argomento, ma cerca una comprensione
+ generale e dei temi principali
+ - **Manageriale**: comprensione approfondita e attuabile delle complessità e
+ delle interrelazioni con accesso ai dettagli
+ - **Esperto**: più esplorazione e scoperta e meno narrazione con
+ grande dettaglio
+ - **Esecutivo**: ha solo il tempo di cogliere il significato e le conclusioni
+ delle probabilità ponderate
+
+Queste categorie possono informare il modo in cui presenti i dati al tuo pubblico.
+
+Oltre a pensare alla categoria del tuo pubblico, dovresti anche considerare il canale che stai utilizzando per comunicare con loro. Il tuo approccio dovrebbe essere leggermente diverso se stai scrivendo un promemoria o un'email rispetto a quando stai tenendo una riunione o presentando a una conferenza.
+
+Oltre a comprendere il tuo pubblico, sapere come comunicherai con loro (utilizzando comunicazione unidirezionale o bidirezionale) è anche fondamentale.
+
+Se stai comunicando con un pubblico principalmente Principiante e stai utilizzando comunicazione unidirezionale, devi prima educare il pubblico e fornire loro il contesto adeguato. Poi devi presentare i tuoi dati e spiegare cosa significano e perché sono importanti. In questo caso, potresti voler essere estremamente concentrato sulla chiarezza, perché il tuo pubblico non sarà in grado di farti domande dirette.
+
+Se stai comunicando con un pubblico principalmente Manageriale e stai utilizzando comunicazione bidirezionale, probabilmente non avrai bisogno di educare il tuo pubblico o fornire loro molto contesto. Potresti essere in grado di passare direttamente alla discussione sui dati che hai raccolto e sul perché sono importanti. In questo scenario, però, dovresti concentrarti sul tempismo e sul controllo della tua presentazione. Quando utilizzi la comunicazione bidirezionale (soprattutto con un pubblico Manageriale che cerca una "comprensione attuabile delle complessità e delle interrelazioni con accesso ai dettagli") potrebbero emergere domande durante l'interazione che potrebbero portare la discussione in una direzione che non è correlata alla storia che stai cercando di raccontare. Quando ciò accade, puoi intervenire e riportare la discussione sulla tua storia.
+
+### 2. Parti con l'obiettivo finale in mente
+Partire con l'obiettivo finale in mente significa comprendere i risultati che intendi ottenere per il tuo pubblico prima di iniziare a comunicare con loro. Essere consapevoli di ciò che vuoi che il tuo pubblico assimili in anticipo può aiutarti a creare una storia che il tuo pubblico possa seguire. Partire con l'obiettivo finale in mente è appropriato sia per la comunicazione unidirezionale che per quella bidirezionale.
+
+Come si parte con l'obiettivo finale in mente? Prima di comunicare i tuoi dati, scrivi i tuoi punti chiave. Poi, ogni passo del percorso mentre prepari la storia che vuoi raccontare con i tuoi dati, chiediti: "Come si integra questo nella storia che sto raccontando?"
+
+Fai attenzione – mentre partire con l'obiettivo finale in mente è ideale, non vuoi comunicare solo i dati che supportano i tuoi risultati desiderati. Questo si chiama Cherry-Picking, che avviene quando un comunicatore comunica solo i dati che supportano il punto che sta cercando di fare e ignora tutti gli altri dati.
+
+Se tutti i dati che hai raccolto supportano chiaramente i tuoi risultati desiderati, ottimo. Ma se ci sono dati che hai raccolto che non supportano i tuoi risultati, o addirittura supportano un argomento contro i tuoi punti chiave, dovresti comunicare anche quei dati. Se ciò accade, sii trasparente con il tuo pubblico e fagli sapere perché stai scegliendo di attenerti alla tua storia anche se tutti i dati non la supportano necessariamente.
+
+### 3. Affrontalo come una vera storia
+Una storia tradizionale si sviluppa in 5 fasi. Potresti aver sentito queste fasi espresse come Esposizione, Azione Crescente, Climax, Azione Decrescente e Denouement. Oppure, più facile da ricordare, Contesto, Conflitto, Climax, Chiusura, Conclusione. Quando comunichi i tuoi dati e la tua storia, puoi adottare un approccio simile.
+
+Puoi iniziare con il contesto, impostare la scena e assicurarti che il tuo pubblico sia tutto sulla stessa lunghezza d'onda. Poi introduci il conflitto. Perché hai bisogno di raccogliere questi dati? Quali problemi stavi cercando di risolvere? Dopo di ciò, il climax. Quali sono i dati? Cosa significano i dati? Quali soluzioni ci dicono i dati che dobbiamo adottare? Poi arrivi alla chiusura, dove puoi ribadire il problema e le soluzioni proposte. Infine, arriviamo alla conclusione, dove puoi riassumere i tuoi punti chiave e i prossimi passi che raccomandi al team di intraprendere.
+
+### 4. Usa parole e frasi significative
+Se tu ed io stessimo lavorando insieme su un prodotto, e ti dicessi "I nostri utenti impiegano molto tempo per registrarsi sulla nostra piattaforma," quanto tempo stimaresti che "molto tempo" significhi? Un'ora? Una settimana? È difficile da sapere. E se lo dicessi a un intero pubblico? Ognuno nel pubblico potrebbe finire con un'idea diversa di quanto tempo impiegano gli utenti per registrarsi sulla nostra piattaforma.
+
+Invece, cosa succederebbe se dicessi "I nostri utenti impiegano, in media, 3 minuti per registrarsi e accedere alla nostra piattaforma."
+
+Quel messaggio è più chiaro. Quando comunichi dati, può essere facile pensare che tutti nel tuo pubblico stiano pensando proprio come te. Ma non è sempre così. Garantire chiarezza sui tuoi dati e su cosa significano è una delle tue responsabilità come comunicatore. Se i dati o la tua storia non sono chiari, il tuo pubblico avrà difficoltà a seguirti, e sarà meno probabile che comprenda i tuoi punti chiave.
+
+Puoi comunicare i dati in modo più chiaro quando usi parole e frasi significative, invece di vaghe. Di seguito sono riportati alcuni esempi.
+
+ - Abbiamo avuto un anno *impressionante*!
+ - Una persona potrebbe pensare che impressionante significhi un aumento del 2% - 3% delle entrate, e un'altra persona potrebbe pensare che significhi un aumento del 50% - 60%.
+ - I tassi di successo dei nostri utenti sono aumentati *drammaticamente*.
+ - Quanto grande è un aumento drammatico?
+ - Questo progetto richiederà uno sforzo *significativo*.
+ - Quanto sforzo è significativo?
+
+Usare parole vaghe potrebbe essere utile come introduzione a più dati che stanno arrivando, o come riassunto della storia che hai appena raccontato. Ma considera di garantire che ogni parte della tua presentazione sia chiara per il tuo pubblico.
+
+### 5. Usa l'emozione
+L'emozione è fondamentale nella narrazione. È ancora più importante quando stai raccontando una storia con i dati. Quando comunichi dati, tutto è focalizzato sui punti chiave che vuoi che il tuo pubblico assimili. Quando evochi un'emozione nel pubblico, lo aiuti a empatizzare e lo rendi più propenso ad agire. L'emozione aumenta anche la probabilità che un pubblico ricordi il tuo messaggio.
+
+Potresti averlo già sperimentato con le pubblicità televisive. Alcune pubblicità sono molto solenni e usano un'emozione triste per connettersi con il loro pubblico e far risaltare davvero i dati che stanno presentando. Oppure, alcune pubblicità sono molto vivaci e felici e potrebbero farti associare i loro dati a un sentimento di felicità.
+
+Come si usa l'emozione quando si comunicano dati? Di seguito sono riportati alcuni modi.
+
+ - Usa Testimonianze e Storie Personali
+ - Quando raccogli dati, cerca di raccogliere sia dati quantitativi che qualitativi, e integra entrambi i tipi di dati quando comunichi. Se i tuoi dati sono principalmente quantitativi, cerca storie da individui per saperne di più sulla loro esperienza con ciò che i tuoi dati stanno raccontando.
+ - Usa Immagini
+ - Le immagini aiutano un pubblico a vedersi in una situazione. Quando usi
+ immagini, puoi spingere un pubblico verso l'emozione che ritieni
+ debba avere riguardo ai tuoi dati.
+ - Usa Colori
+ - Diversi colori evocano diverse emozioni. I colori popolari e le emozioni che evocano sono riportati di seguito. Sii consapevole che i colori potrebbero avere significati diversi in diverse culture.
+ - Il blu di solito evoca emozioni di pace e fiducia
+ - Il verde è solitamente legato alla natura e all'ambiente
+ - Il rosso è solitamente passione ed eccitazione
+ - Il giallo è solitamente ottimismo e felicità
+
+# Caso di Studio sulla Comunicazione
+Emerson è un Product Manager per un'app mobile. Emerson ha notato che i clienti inviano il 42% in più di reclami e segnalazioni di bug nei fine settimana. Emerson ha anche notato che i clienti che inviano un reclamo che rimane senza risposta per più di 48 ore sono il 32% più propensi a dare all'app una valutazione di 1 o 2 nello store.
+
+Dopo aver fatto ricerche, Emerson ha alcune soluzioni che affronteranno il problema. Emerson organizza una riunione di 30 minuti con i 3 responsabili aziendali per comunicare i dati e le soluzioni proposte.
+
+Durante questa riunione, l'obiettivo di Emerson è far comprendere ai responsabili aziendali che le 2 soluzioni sotto riportate possono migliorare la valutazione dell'app, il che probabilmente si tradurrà in un aumento delle entrate.
+
+**Soluzione 1.** Assumere rappresentanti del servizio clienti per lavorare nei fine settimana
+
+**Soluzione 2.** Acquistare un nuovo sistema di gestione dei ticket del servizio clienti in cui i rappresentanti del servizio clienti possano facilmente identificare quali reclami sono rimasti in coda più a lungo – così da sapere quali affrontare immediatamente.
+Durante la riunione, Emerson trascorre 5 minuti spiegando perché avere una bassa valutazione sull'app store è un problema, 10 minuti illustrando il processo di ricerca e come sono state identificate le tendenze, 10 minuti analizzando alcune delle recenti lamentele dei clienti, e gli ultimi 5 minuti accennando brevemente alle 2 soluzioni potenziali.
+
+È stato un modo efficace per Emerson di comunicare durante questa riunione?
+
+Durante la riunione, un responsabile aziendale si è concentrato esclusivamente sui 10 minuti dedicati alle lamentele dei clienti che Emerson ha illustrato. Dopo la riunione, queste lamentele sono state l'unica cosa che questo responsabile ha ricordato. Un altro responsabile si è focalizzato principalmente sulla descrizione del processo di ricerca da parte di Emerson. Il terzo responsabile ha ricordato le soluzioni proposte da Emerson, ma non era sicuro di come queste soluzioni potessero essere implementate.
+
+Nella situazione sopra descritta, si può notare un divario significativo tra ciò che Emerson voleva che i responsabili aziendali comprendessero e ciò che effettivamente hanno tratto dalla riunione. Di seguito è riportato un altro approccio che Emerson potrebbe considerare.
+
+Come potrebbe Emerson migliorare questo approccio?
+Contesto, Conflitto, Climax, Chiusura, Conclusione
+**Contesto** - Emerson potrebbe dedicare i primi 5 minuti a introdurre l'intera situazione, assicurandosi che i responsabili aziendali comprendano come i problemi influenzano metriche critiche per l'azienda, come il fatturato.
+
+Potrebbe essere presentato in questo modo: "Attualmente, la valutazione della nostra app sull'app store è di 2,5. Le valutazioni sull'app store sono fondamentali per l'ottimizzazione dell'app store, che influisce su quanti utenti vedono la nostra app nelle ricerche e su come la nostra app viene percepita dai potenziali utenti. E, naturalmente, il numero di utenti che abbiamo è direttamente legato al fatturato."
+
+**Conflitto** Emerson potrebbe poi dedicare i successivi 5 minuti circa a parlare del conflitto.
+
+Potrebbe essere presentato così: “Gli utenti inviano il 42% in più di lamentele e segnalazioni di bug nei fine settimana. I clienti che inviano una lamentela che rimane senza risposta per oltre 48 ore hanno il 32% di probabilità in meno di dare alla nostra app una valutazione superiore a 2 sull'app store. Migliorare la valutazione della nostra app sull'app store a 4 aumenterebbe la nostra visibilità del 20-30%, il che, secondo le mie proiezioni, incrementerebbe il fatturato del 10%." Naturalmente, Emerson dovrebbe essere pronto a giustificare questi numeri.
+
+**Climax** Dopo aver posto le basi, Emerson potrebbe passare al Climax per circa 5 minuti.
+
+Emerson potrebbe introdurre le soluzioni proposte, spiegare come queste soluzioni affronteranno i problemi evidenziati, come potrebbero essere integrate nei flussi di lavoro esistenti, quanto costano, quale sarebbe il ROI delle soluzioni, e magari mostrare anche alcuni screenshot o wireframe di come apparirebbero le soluzioni una volta implementate. Emerson potrebbe anche condividere testimonianze di utenti che hanno atteso oltre 48 ore per ricevere una risposta alle loro lamentele, e persino una testimonianza di un attuale rappresentante del servizio clienti dell'azienda che commenta il sistema di ticketing attuale.
+
+**Chiusura** A questo punto, Emerson potrebbe dedicare 5 minuti a ribadire i problemi affrontati dall'azienda, rivedere le soluzioni proposte e spiegare perché queste soluzioni sono quelle giuste.
+
+**Conclusione** Poiché si tratta di una riunione con pochi stakeholder in cui è prevista una comunicazione bidirezionale, Emerson potrebbe pianificare di lasciare 10 minuti per le domande, per assicurarsi che qualsiasi dubbio dei responsabili aziendali venga chiarito prima della fine della riunione.
+
+Se Emerson adottasse l'approccio #2, è molto più probabile che i responsabili aziendali trarrebbero dalla riunione esattamente ciò che Emerson intendeva comunicare: che il modo in cui vengono gestite le lamentele e i bug potrebbe essere migliorato, e che ci sono 2 soluzioni che potrebbero essere implementate per realizzare questo miglioramento. Questo approccio sarebbe molto più efficace per comunicare i dati e la storia che Emerson vuole trasmettere.
+
+# Conclusione
+### Riepilogo dei punti principali
+- Comunicare significa trasmettere o scambiare informazioni.
+- Quando si comunicano dati, l'obiettivo non dovrebbe essere semplicemente quello di trasmettere numeri al pubblico. L'obiettivo dovrebbe essere quello di comunicare una storia informata dai dati.
+- Esistono 2 tipi di comunicazione: Comunicazione Unidirezionale (le informazioni vengono trasmesse senza l'intenzione di ricevere una risposta) e Comunicazione Bidirezionale (le informazioni vengono scambiate in entrambe le direzioni).
+- Ci sono molte strategie che si possono utilizzare per raccontare una storia con i dati. Le 5 strategie che abbiamo esaminato sono:
+ - Comprendere il proprio pubblico, il mezzo e il metodo di comunicazione
+ - Iniziare con la fine in mente
+ - Approcciare il tutto come una vera e propria storia
+ - Usare parole e frasi significative
+ - Usare l'emozione
+
+### Risorse consigliate per l'autoapprendimento
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Rivedi ciò che hai appena imparato con il quiz post-lezione sopra!
+
+## Compito
+
+[Market Research](assignment.md)
+
+---
+
+**Clausola di esclusione della responsabilità**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire la massima accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia di ricorrere a una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/it/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..80d4be73
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Racconta una storia
+
+## Istruzioni
+
+La Data Science riguarda il raccontare storie. Scegli un qualsiasi dataset e scrivi un breve articolo su una storia che potresti raccontare a partire da esso. Cosa speri che il tuo dataset possa rivelare? Cosa farai se le sue rivelazioni si dimostrassero problematiche? E se i dati non rivelassero facilmente i loro segreti? Pensa agli scenari che il tuo dataset potrebbe presentare e scrivili.
+
+## Griglia di valutazione
+
+Esemplare | Adeguato | Da migliorare
+--- | --- | --- |
+
+Un saggio di una pagina è presentato in formato .doc con il dataset spiegato, documentato, accreditato, e una storia coerente è raccontata con esempi dettagliati tratti dai dati. | Un saggio più breve è presentato in un formato meno dettagliato | Il saggio risulta carente in uno dei dettagli sopra indicati.
+
+---
+
+**Disclaimer (Avvertenza)**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di tenere presente che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali malintesi o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/4-Data-Science-Lifecycle/README.md b/translations/it/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..dd3178ae
--- /dev/null
+++ b/translations/it/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Il ciclo di vita della Data Science
+
+
+> Foto di Headway su Unsplash
+
+In queste lezioni, esplorerai alcuni aspetti del ciclo di vita della Data Science, inclusa l'analisi e la comunicazione dei dati.
+
+### Argomenti
+
+1. [Introduzione](14-Introduction/README.md)
+2. [Analisi](15-analyzing/README.md)
+3. [Comunicazione](16-communication/README.md)
+
+### Crediti
+
+Queste lezioni sono state scritte con ❤️ da [Jalen McGee](https://twitter.com/JalenMCG) e [Jasmine Greenaway](https://twitter.com/paladique)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/it/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..dd6496d9
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,115 @@
+
+# Introduzione alla Data Science nel Cloud
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Data Science nel Cloud: Introduzione - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+
+In questa lezione, imparerai i principi fondamentali del Cloud, scoprirai perché può essere interessante utilizzare i servizi Cloud per eseguire i tuoi progetti di data science e vedremo alcuni esempi di progetti di data science eseguiti nel Cloud.
+
+## [Quiz Pre-Lettura](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Cos'è il Cloud?
+
+Il Cloud, o Cloud Computing, è la fornitura di una vasta gamma di servizi informatici a consumo ospitati su un'infrastruttura tramite internet. I servizi includono soluzioni come archiviazione, database, networking, software, analisi e servizi intelligenti.
+
+Di solito distinguiamo i Cloud Pubblici, Privati e Ibridi come segue:
+
+* Cloud pubblico: un cloud pubblico è di proprietà e gestito da un fornitore di servizi cloud di terze parti che offre le sue risorse informatiche su Internet al pubblico.
+* Cloud privato: si riferisce alle risorse di cloud computing utilizzate esclusivamente da un'unica azienda o organizzazione, con servizi e un'infrastruttura mantenuti su una rete privata.
+* Cloud ibrido: il cloud ibrido è un sistema che combina cloud pubblici e privati. Gli utenti optano per un datacenter locale, consentendo al contempo l'esecuzione di dati e applicazioni su uno o più cloud pubblici.
+
+La maggior parte dei servizi di cloud computing rientra in tre categorie: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) e Software as a Service (SaaS).
+
+* Infrastructure as a Service (IaaS): gli utenti noleggiano un'infrastruttura IT come server e macchine virtuali (VM), archiviazione, reti, sistemi operativi.
+* Platform as a Service (PaaS): gli utenti noleggiano un ambiente per sviluppare, testare, distribuire e gestire applicazioni software. Gli utenti non devono preoccuparsi di configurare o gestire l'infrastruttura sottostante di server, archiviazione, rete e database necessari per lo sviluppo.
+* Software as a Service (SaaS): gli utenti accedono a applicazioni software tramite Internet, su richiesta e tipicamente su base di abbonamento. Gli utenti non devono preoccuparsi di ospitare e gestire l'applicazione software, l'infrastruttura sottostante o la manutenzione, come aggiornamenti software e patch di sicurezza.
+
+Alcuni dei principali fornitori di Cloud sono Amazon Web Services, Google Cloud Platform e Microsoft Azure.
+
+## Perché scegliere il Cloud per la Data Science?
+
+Sviluppatori e professionisti IT scelgono di lavorare con il Cloud per molte ragioni, tra cui:
+
+* Innovazione: puoi potenziare le tue applicazioni integrando servizi innovativi creati dai fornitori di Cloud direttamente nelle tue app.
+* Flessibilità: paghi solo per i servizi di cui hai bisogno e puoi scegliere tra una vasta gamma di servizi. Tipicamente paghi a consumo e adatti i tuoi servizi in base alle tue esigenze in evoluzione.
+* Budget: non è necessario fare investimenti iniziali per acquistare hardware e software, configurare e gestire datacenter locali; puoi semplicemente pagare per ciò che utilizzi.
+* Scalabilità: le tue risorse possono scalare in base alle esigenze del tuo progetto, il che significa che le tue app possono utilizzare più o meno potenza di calcolo, archiviazione e larghezza di banda, adattandosi a fattori esterni in qualsiasi momento.
+* Produttività: puoi concentrarti sulla tua attività piuttosto che perdere tempo su compiti che possono essere gestiti da qualcun altro, come la gestione dei datacenter.
+* Affidabilità: il Cloud Computing offre diversi modi per eseguire backup continui dei tuoi dati e puoi configurare piani di recupero in caso di disastri per mantenere la tua attività e i tuoi servizi operativi, anche in tempi di crisi.
+* Sicurezza: puoi beneficiare di politiche, tecnologie e controlli che rafforzano la sicurezza del tuo progetto.
+
+Queste sono alcune delle ragioni più comuni per cui le persone scelgono di utilizzare i servizi Cloud. Ora che abbiamo una migliore comprensione di cosa sia il Cloud e dei suoi principali vantaggi, esaminiamo più specificamente il lavoro dei Data Scientist e degli sviluppatori che lavorano con i dati, e come il Cloud può aiutarli a superare diverse sfide che potrebbero incontrare:
+
+* Archiviazione di grandi quantità di dati: invece di acquistare, gestire e proteggere grandi server, puoi archiviare i tuoi dati direttamente nel cloud, con soluzioni come Azure Cosmos DB, Azure SQL Database e Azure Data Lake Storage.
+* Integrazione dei dati: l'integrazione dei dati è una parte essenziale della Data Science, che ti consente di passare dalla raccolta dei dati all'azione. Con i servizi di integrazione dei dati offerti nel cloud, puoi raccogliere, trasformare e integrare dati da varie fonti in un unico data warehouse, con Data Factory.
+* Elaborazione dei dati: elaborare grandi quantità di dati richiede molta potenza di calcolo, e non tutti hanno accesso a macchine abbastanza potenti per farlo, motivo per cui molte persone scelgono di sfruttare direttamente la grande potenza di calcolo del cloud per eseguire e distribuire le loro soluzioni.
+* Utilizzo di servizi di analisi dei dati: servizi cloud come Azure Synapse Analytics, Azure Stream Analytics e Azure Databricks ti aiutano a trasformare i tuoi dati in informazioni utili.
+* Utilizzo di servizi di Machine Learning e intelligenza dei dati: invece di partire da zero, puoi utilizzare algoritmi di machine learning offerti dal fornitore di cloud, con servizi come AzureML. Puoi anche utilizzare servizi cognitivi come speech-to-text, text-to-speech, computer vision e altro.
+
+## Esempi di Data Science nel Cloud
+
+Rendiamo tutto più concreto esaminando un paio di scenari.
+
+### Analisi del sentiment sui social media in tempo reale
+Iniziamo con uno scenario comunemente studiato da chi si avvicina al machine learning: l'analisi del sentiment sui social media in tempo reale.
+
+Supponiamo che tu gestisca un sito web di notizie e voglia sfruttare i dati live per capire quali contenuti potrebbero interessare ai tuoi lettori. Per saperne di più, puoi creare un programma che esegue un'analisi del sentiment in tempo reale dei dati provenienti da pubblicazioni su Twitter, su argomenti rilevanti per i tuoi lettori.
+
+Gli indicatori chiave che esaminerai sono il volume di tweet su argomenti specifici (hashtag) e il sentiment, che viene stabilito utilizzando strumenti di analisi che eseguono l'analisi del sentiment sugli argomenti specificati.
+
+I passaggi necessari per creare questo progetto sono i seguenti:
+
+* Creare un hub eventi per lo streaming di input, che raccoglierà dati da Twitter.
+* Configurare e avviare un'applicazione client Twitter, che chiamerà le API di streaming di Twitter.
+* Creare un lavoro di Stream Analytics.
+* Specificare l'input e la query del lavoro.
+* Creare un sink di output e specificare l'output del lavoro.
+* Avviare il lavoro.
+
+Per visualizzare il processo completo, consulta la [documentazione](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099).
+
+### Analisi di articoli scientifici
+Prendiamo un altro esempio di un progetto creato da [Dmitry Soshnikov](http://soshnikov.com), uno degli autori di questo curriculum.
+
+Dmitry ha creato uno strumento che analizza articoli sul COVID. Esaminando questo progetto, vedrai come puoi creare uno strumento che estrae conoscenze da articoli scientifici, ottiene informazioni e aiuta i ricercatori a navigare attraverso grandi collezioni di articoli in modo efficiente.
+
+Vediamo i diversi passaggi utilizzati per questo:
+
+* Estrarre e pre-processare informazioni con [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Utilizzare [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) per parallelizzare l'elaborazione.
+* Archiviare e interrogare informazioni con [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+* Creare un dashboard interattivo per l'esplorazione e la visualizzazione dei dati utilizzando Power BI.
+
+Per vedere il processo completo, visita il [blog di Dmitry](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/).
+
+Come puoi vedere, possiamo sfruttare i servizi Cloud in molti modi per eseguire la Data Science.
+
+## Nota a piè di pagina
+
+Fonti:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Quiz Post-Lettura
+
+[Quiz post-lettura](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Compito
+
+[Ricerca di Mercato](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/it/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..e8f60d16
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Ricerca di Mercato
+
+## Istruzioni
+
+In questa lezione hai imparato che ci sono diversi importanti fornitori di cloud. Fai una ricerca di mercato per scoprire cosa ciascuno di essi può offrire al Data Scientist. Le offerte sono comparabili? Scrivi un documento per descrivere le offerte di tre o più di questi fornitori di cloud.
+
+## Rubrica
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | --- |
+Un documento di una pagina descrive le offerte per la data science di tre fornitori di cloud e le differenzia tra loro. | Viene presentato un documento più breve | Viene presentato un documento senza completare l'analisi
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/it/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..acdcf37a
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,348 @@
+
+# Data Science nel Cloud: Il metodo "Low code/No code"
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Data Science nel Cloud: Low Code - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Indice:
+
+- [Data Science nel Cloud: Il metodo "Low code/No code"](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz pre-lezione](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Introduzione](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Cos'è Azure Machine Learning?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Il progetto di previsione dell'insufficienza cardiaca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Il dataset sull'insufficienza cardiaca:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Addestramento Low code/No code di un modello in Azure ML Studio](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Creare uno spazio di lavoro Azure ML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Risorse di calcolo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Scegliere le opzioni giuste per le risorse di calcolo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Creare un cluster di calcolo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Caricamento del dataset](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 Addestramento Low code/No code con AutoML](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Deployment del modello Low code/No code e consumo dell'endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Deployment del modello](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Consumo dell'endpoint](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Sfida](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Quiz post-lezione](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Revisione e studio autonomo](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Compito](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Introduzione
+### 1.1 Cos'è Azure Machine Learning?
+
+La piattaforma cloud Azure offre più di 200 prodotti e servizi cloud progettati per aiutarti a dare vita a nuove soluzioni. I data scientist dedicano molto tempo all'esplorazione e alla pre-elaborazione dei dati, oltre a testare vari tipi di algoritmi di addestramento per produrre modelli accurati. Questi compiti sono dispendiosi in termini di tempo e spesso utilizzano in modo inefficiente hardware di calcolo costoso.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) è una piattaforma basata sul cloud per la creazione e l'operatività di soluzioni di machine learning in Azure. Include una vasta gamma di funzionalità che aiutano i data scientist a preparare i dati, addestrare modelli, pubblicare servizi predittivi e monitorarne l'utilizzo. Soprattutto, consente di aumentare l'efficienza automatizzando molti dei compiti dispendiosi in termini di tempo associati all'addestramento dei modelli e permette di utilizzare risorse di calcolo basate sul cloud che si scalano efficacemente per gestire grandi volumi di dati, sostenendo costi solo quando effettivamente utilizzate.
+
+Azure ML fornisce tutti gli strumenti necessari per i flussi di lavoro di machine learning di sviluppatori e data scientist. Questi includono:
+
+- **Azure Machine Learning Studio**: un portale web in Azure Machine Learning per opzioni low-code e no-code per l'addestramento, il deployment, l'automazione, il tracciamento e la gestione delle risorse. Lo studio si integra con l'SDK di Azure Machine Learning per un'esperienza senza interruzioni.
+- **Jupyter Notebooks**: prototipazione rapida e test di modelli ML.
+- **Azure Machine Learning Designer**: consente di trascinare e rilasciare moduli per costruire esperimenti e poi distribuire pipeline in un ambiente low-code.
+- **Interfaccia AutoML per il machine learning automatizzato**: automatizza i compiti iterativi dello sviluppo di modelli di machine learning, permettendo di costruire modelli ML con alta scala, efficienza e produttività, mantenendo la qualità del modello.
+- **Etichettatura dei dati**: uno strumento ML assistito per etichettare automaticamente i dati.
+- **Estensione di machine learning per Visual Studio Code**: fornisce un ambiente di sviluppo completo per la creazione e la gestione di progetti ML.
+- **CLI per il machine learning**: offre comandi per gestire le risorse di Azure ML dalla riga di comando.
+- **Integrazione con framework open-source** come PyTorch, TensorFlow, Scikit-learn e molti altri per l'addestramento, il deployment e la gestione del processo end-to-end di machine learning.
+- **MLflow**: una libreria open-source per gestire il ciclo di vita degli esperimenti di machine learning. **MLFlow Tracking** è un componente di MLflow che registra e traccia le metriche di addestramento e gli artefatti del modello, indipendentemente dall'ambiente dell'esperimento.
+
+### 1.2 Il progetto di previsione dell'insufficienza cardiaca:
+
+Non c'è dubbio che creare e sviluppare progetti sia il modo migliore per mettere alla prova le proprie competenze e conoscenze. In questa lezione, esploreremo due modi diversi per costruire un progetto di data science per la previsione di attacchi di insufficienza cardiaca in Azure ML Studio, attraverso il metodo Low code/No code e attraverso l'SDK di Azure ML, come mostrato nello schema seguente:
+
+
+
+Ogni metodo ha i suoi pro e contro. Il metodo Low code/No code è più facile da iniziare poiché implica l'interazione con un'interfaccia grafica (GUI), senza necessità di conoscenze di programmazione. Questo metodo consente di testare rapidamente la fattibilità del progetto e di creare un POC (Proof Of Concept). Tuttavia, man mano che il progetto cresce e deve essere pronto per la produzione, non è fattibile creare risorse tramite GUI. È necessario automatizzare tutto programmaticamente, dalla creazione delle risorse al deployment di un modello. È qui che diventa cruciale sapere come utilizzare l'SDK di Azure ML.
+
+| | Low code/No code | SDK di Azure ML |
+|-------------------|------------------|---------------------------|
+| Competenza nel codice | Non richiesta | Richiesta |
+| Tempo di sviluppo | Veloce e semplice | Dipende dalla competenza nel codice |
+| Pronto per la produzione | No | Sì |
+
+### 1.3 Il dataset sull'insufficienza cardiaca:
+
+Le malattie cardiovascolari (CVD) sono la principale causa di morte a livello globale, rappresentando il 31% di tutti i decessi nel mondo. Fattori di rischio ambientali e comportamentali come l'uso di tabacco, una dieta non salutare e l'obesità, l'inattività fisica e l'uso dannoso di alcol potrebbero essere utilizzati come caratteristiche per modelli di stima. Essere in grado di stimare la probabilità di sviluppo di una CVD potrebbe essere di grande utilità per prevenire attacchi in persone ad alto rischio.
+
+Kaggle ha reso disponibile pubblicamente un [dataset sull'insufficienza cardiaca](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data), che utilizzeremo per questo progetto. Puoi scaricare il dataset ora. Si tratta di un dataset tabellare con 13 colonne (12 caratteristiche e 1 variabile target) e 299 righe.
+
+| | Nome variabile | Tipo | Descrizione | Esempio |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 1 | age | numerico | Età del paziente | 25 |
+| 2 | anaemia | booleano | Diminuzione dei globuli rossi o dell'emoglobina | 0 o 1 |
+| 3 | creatinine_phosphokinase | numerico | Livello dell'enzima CPK nel sangue | 542 |
+| 4 | diabetes | booleano | Se il paziente ha il diabete | 0 o 1 |
+| 5 | ejection_fraction | numerico | Percentuale di sangue che lascia il cuore a ogni contrazione | 45 |
+| 6 | high_blood_pressure | booleano | Se il paziente ha ipertensione | 0 o 1 |
+| 7 | platelets | numerico | Piastrine nel sangue | 149000 |
+| 8 | serum_creatinine | numerico | Livello di creatinina sierica nel sangue | 0.5 |
+| 9 | serum_sodium | numerico | Livello di sodio sierico nel sangue | jun |
+| 10 | sex | booleano | Donna o uomo | 0 o 1 |
+| 11 | smoking | booleano | Se il paziente fuma | 0 o 1 |
+| 12 | time | numerico | Periodo di follow-up (giorni) | 4 |
+|----|---------------------------|-----------------|-----------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Target] | booleano | Se il paziente muore durante il periodo di follow-up | 0 o 1 |
+
+Una volta ottenuto il dataset, possiamo iniziare il progetto in Azure.
+
+## 2. Addestramento Low code/No code di un modello in Azure ML Studio
+### 2.1 Creare uno spazio di lavoro Azure ML
+Per addestrare un modello in Azure ML, è necessario prima creare uno spazio di lavoro Azure ML. Lo spazio di lavoro è la risorsa di livello superiore per Azure Machine Learning, che fornisce un luogo centralizzato per lavorare con tutti gli artefatti creati durante l'utilizzo di Azure Machine Learning. Lo spazio di lavoro tiene traccia di tutte le esecuzioni di addestramento, inclusi log, metriche, output e uno snapshot degli script. Queste informazioni vengono utilizzate per determinare quale esecuzione di addestramento produce il miglior modello. [Scopri di più](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Si consiglia di utilizzare il browser più aggiornato compatibile con il sistema operativo. I seguenti browser sono supportati:
+
+- Microsoft Edge (Il nuovo Microsoft Edge, ultima versione. Non Microsoft Edge legacy)
+- Safari (ultima versione, solo Mac)
+- Chrome (ultima versione)
+- Firefox (ultima versione)
+
+Per utilizzare Azure Machine Learning, crea uno spazio di lavoro nel tuo abbonamento Azure. Puoi quindi utilizzare questo spazio di lavoro per gestire dati, risorse di calcolo, codice, modelli e altri artefatti relativi ai tuoi carichi di lavoro di machine learning.
+
+> **_NOTA:_** Il tuo abbonamento Azure verrà addebitato per una piccola quantità di archiviazione dati finché lo spazio di lavoro Azure Machine Learning esiste nel tuo abbonamento, quindi ti consigliamo di eliminare lo spazio di lavoro Azure Machine Learning quando non lo utilizzi più.
+
+1. Accedi al [portale Azure](https://ms.portal.azure.com/) utilizzando le credenziali Microsoft associate al tuo abbonamento Azure.
+2. Seleziona **+Crea una risorsa**
+
+ 
+
+ Cerca Machine Learning e seleziona il riquadro Machine Learning
+
+ 
+
+ Clicca sul pulsante crea
+
+ 
+
+ Compila le impostazioni come segue:
+ - Abbonamento: Il tuo abbonamento Azure
+ - Gruppo di risorse: Crea o seleziona un gruppo di risorse
+ - Nome dello spazio di lavoro: Inserisci un nome univoco per il tuo spazio di lavoro
+ - Regione: Seleziona la regione geografica più vicina a te
+ - Account di archiviazione: Nota il nuovo account di archiviazione predefinito che verrà creato per il tuo spazio di lavoro
+ - Key vault: Nota il nuovo key vault predefinito che verrà creato per il tuo spazio di lavoro
+ - Application insights: Nota la nuova risorsa application insights predefinita che verrà creata per il tuo spazio di lavoro
+ - Container registry: Nessuno (uno verrà creato automaticamente la prima volta che distribuisci un modello in un container)
+
+ 
+
+ - Clicca su crea + revisione e poi sul pulsante crea
+3. Attendi che il tuo spazio di lavoro venga creato (questo può richiedere alcuni minuti). Poi vai al portale. Puoi trovarlo tramite il servizio Azure Machine Learning.
+4. Nella pagina Panoramica del tuo spazio di lavoro, avvia Azure Machine Learning studio (o apri una nuova scheda del browser e naviga su https://ml.azure.com), e accedi ad Azure Machine Learning studio utilizzando il tuo account Microsoft. Se richiesto, seleziona la tua directory e abbonamento Azure, e il tuo spazio di lavoro Azure Machine Learning.
+
+
+
+5. In Azure Machine Learning studio, attiva l'icona ☰ in alto a sinistra per visualizzare le varie pagine dell'interfaccia. Puoi utilizzare queste pagine per gestire le risorse nel tuo spazio di lavoro.
+
+
+
+Puoi gestire il tuo spazio di lavoro utilizzando il portale Azure, ma per i data scientist e gli ingegneri delle operazioni di Machine Learning, Azure Machine Learning Studio offre un'interfaccia utente più mirata per la gestione delle risorse dello spazio di lavoro.
+
+### 2.2 Risorse di calcolo
+
+Le risorse di calcolo sono risorse basate sul cloud su cui è possibile eseguire processi di addestramento del modello e di esplorazione dei dati. Esistono quattro tipi di risorse di calcolo che puoi creare:
+
+- **Compute Instances**: Workstation di sviluppo che i data scientist possono utilizzare per lavorare con dati e modelli. Questo comporta la creazione di una macchina virtuale (VM) e l'avvio di un'istanza notebook. Puoi quindi addestrare un modello chiamando un cluster di calcolo dal notebook.
+- **Compute Clusters**: Cluster scalabili di VM per l'elaborazione on-demand del codice degli esperimenti. Sarà necessario quando si addestra un modello. I cluster di calcolo possono anche utilizzare risorse GPU o CPU specializzate.
+- **Inference Clusters**: Target di distribuzione per servizi predittivi che utilizzano i tuoi modelli addestrati.
+- **Compute collegato**: Collegamenti a risorse di calcolo Azure esistenti, come macchine virtuali o cluster Azure Databricks.
+
+#### 2.2.1 Scegliere le opzioni giuste per le risorse di calcolo
+
+Ci sono alcuni fattori chiave da considerare quando si crea una risorsa di calcolo, e queste scelte possono essere decisioni critiche da prendere.
+
+**Hai bisogno di CPU o GPU?**
+
+Una CPU (Central Processing Unit) è il circuito elettronico che esegue le istruzioni di un programma informatico. Una GPU (Graphics Processing Unit) è un circuito elettronico specializzato che può eseguire codice relativo alla grafica a una velocità molto elevata.
+
+La principale differenza tra l'architettura di CPU e GPU è che una CPU è progettata per gestire una vasta gamma di attività rapidamente (misurata dalla velocità di clock della CPU), ma è limitata nella concorrenza delle attività che possono essere eseguite. Le GPU sono progettate per il calcolo parallelo e quindi sono molto più adatte ai compiti di deep learning.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Meno costosa | Più costosa |
+| Livello di concorrenza inferiore | Livello di concorrenza superiore |
+| Più lenta nell'addestramento di modelli di deep learning | Ottimale per il deep learning |
+
+**Dimensione del cluster**
+
+Cluster più grandi sono più costosi ma garantiscono una migliore reattività. Pertanto, se hai tempo ma non abbastanza denaro, dovresti iniziare con un cluster piccolo. Al contrario, se hai denaro ma poco tempo, dovresti iniziare con un cluster più grande.
+
+**Dimensione della VM**
+
+A seconda dei tuoi vincoli di tempo e budget, puoi variare la dimensione della RAM, del disco, il numero di core e la velocità di clock. Aumentare tutti questi parametri sarà più costoso, ma garantirà prestazioni migliori.
+
+**Istanza dedicata o a bassa priorità?**
+
+Un'istanza a bassa priorità significa che è interrompibile: essenzialmente, Microsoft Azure può prendere quelle risorse e assegnarle a un altro compito, interrompendo così un lavoro. Un'istanza dedicata, o non interrompibile, significa che il lavoro non sarà mai terminato senza il tuo permesso. Questa è un'altra considerazione tra tempo e denaro, poiché le istanze interrompibili sono meno costose di quelle dedicate.
+
+#### 2.2.2 Creare un cluster di calcolo
+
+Nel [workspace Azure ML](https://ml.azure.com/) che abbiamo creato in precedenza, vai su "Compute" e potrai vedere le diverse risorse di calcolo appena discusse (ad esempio istanze di calcolo, cluster di calcolo, cluster di inferenza e compute collegato). Per questo progetto, avremo bisogno di un cluster di calcolo per l'addestramento del modello. Nello Studio, clicca sul menu "Compute", poi sulla scheda "Compute cluster" e clicca sul pulsante "+ Nuovo" per creare un cluster di calcolo.
+
+
+
+1. Scegli le tue opzioni: Dedicato vs Bassa priorità, CPU o GPU, dimensione della VM e numero di core (puoi mantenere le impostazioni predefinite per questo progetto).
+2. Clicca sul pulsante "Avanti".
+
+
+
+3. Dai un nome al cluster di calcolo.
+4. Scegli le tue opzioni: Numero minimo/massimo di nodi, secondi di inattività prima della riduzione, accesso SSH. Nota che se il numero minimo di nodi è 0, risparmierai denaro quando il cluster è inattivo. Nota che maggiore è il numero di nodi massimi, più breve sarà l'addestramento. Il numero massimo di nodi consigliato è 3.
+5. Clicca sul pulsante "Crea". Questo passaggio potrebbe richiedere alcuni minuti.
+
+
+
+Fantastico! Ora che abbiamo un cluster di calcolo, dobbiamo caricare i dati su Azure ML Studio.
+
+### 2.3 Caricare il dataset
+
+1. Nel [workspace Azure ML](https://ml.azure.com/) che abbiamo creato in precedenza, clicca su "Datasets" nel menu a sinistra e clicca sul pulsante "+ Crea dataset" per creare un dataset. Scegli l'opzione "Da file locali" e seleziona il dataset di Kaggle che abbiamo scaricato in precedenza.
+
+ 
+
+2. Dai un nome, un tipo e una descrizione al tuo dataset. Clicca su "Avanti". Carica i dati dai file. Clicca su "Avanti".
+
+ 
+
+3. Nello schema, cambia il tipo di dati in Booleano per le seguenti caratteristiche: anemia, diabete, pressione alta, sesso, fumo e DEATH_EVENT. Clicca su "Avanti" e poi su "Crea".
+
+ 
+
+Ottimo! Ora che il dataset è pronto e il cluster di calcolo è stato creato, possiamo iniziare l'addestramento del modello!
+
+### 2.4 Addestramento Low code/No code con AutoML
+
+Lo sviluppo tradizionale di modelli di machine learning è intensivo in termini di risorse, richiede una conoscenza significativa del dominio e tempo per produrre e confrontare decine di modelli.
+L'apprendimento automatico automatizzato (AutoML) è il processo di automazione delle attività iterative e dispendiose in termini di tempo dello sviluppo di modelli di machine learning. Consente a data scientist, analisti e sviluppatori di costruire modelli ML con alta scala, efficienza e produttività, mantenendo la qualità del modello. Riduce il tempo necessario per ottenere modelli ML pronti per la produzione, con grande facilità ed efficienza. [Scopri di più](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. Nel [workspace Azure ML](https://ml.azure.com/) che abbiamo creato in precedenza, clicca su "Automated ML" nel menu a sinistra e seleziona il dataset che hai appena caricato. Clicca su "Avanti".
+
+ 
+
+2. Inserisci un nuovo nome per l'esperimento, la colonna target (DEATH_EVENT) e il cluster di calcolo che abbiamo creato. Clicca su "Avanti".
+
+ 
+
+3. Scegli "Classificazione" e clicca su "Fine". Questo passaggio potrebbe richiedere tra 30 minuti e 1 ora, a seconda della dimensione del cluster di calcolo.
+
+ 
+
+4. Una volta completata l'esecuzione, clicca sulla scheda "Automated ML", clicca sulla tua esecuzione e clicca sull'algoritmo nella scheda "Best model summary".
+
+ 
+
+Qui puoi vedere una descrizione dettagliata del miglior modello generato da AutoML. Puoi anche esplorare altri modelli generati nella scheda "Models". Prenditi qualche minuto per esplorare i modelli nella scheda "Explanations (preview)". Una volta scelto il modello che vuoi utilizzare (qui sceglieremo il miglior modello selezionato da AutoML), vedremo come possiamo distribuirlo.
+
+## 3. Distribuzione del modello Low code/No code e consumo dell'endpoint
+### 3.1 Distribuzione del modello
+
+L'interfaccia di apprendimento automatico automatizzato consente di distribuire il miglior modello come servizio web in pochi passaggi. La distribuzione è l'integrazione del modello in modo che possa fare previsioni basate su nuovi dati e identificare potenziali aree di opportunità. Per questo progetto, la distribuzione come servizio web significa che le applicazioni mediche potranno consumare il modello per fare previsioni in tempo reale sul rischio di infarto dei loro pazienti.
+
+Nella descrizione del miglior modello, clicca sul pulsante "Deploy".
+
+
+
+15. Dai un nome, una descrizione, il tipo di calcolo (Azure Container Instance), abilita l'autenticazione e clicca su "Deploy". Questo passaggio potrebbe richiedere circa 20 minuti per essere completato. Il processo di distribuzione comprende diversi passaggi, tra cui la registrazione del modello, la generazione delle risorse e la loro configurazione per il servizio web. Un messaggio di stato appare sotto "Deploy status". Seleziona "Refresh" periodicamente per controllare lo stato della distribuzione. È distribuito e funzionante quando lo stato è "Healthy".
+
+
+
+16. Una volta distribuito, clicca sulla scheda "Endpoint" e clicca sull'endpoint appena distribuito. Qui puoi trovare tutti i dettagli necessari sull'endpoint.
+
+
+
+Fantastico! Ora che abbiamo un modello distribuito, possiamo iniziare il consumo dell'endpoint.
+
+### 3.2 Consumo dell'endpoint
+
+Clicca sulla scheda "Consume". Qui puoi trovare l'endpoint REST e uno script Python nell'opzione di consumo. Prenditi del tempo per leggere il codice Python.
+
+Questo script può essere eseguito direttamente dalla tua macchina locale e consumerà il tuo endpoint.
+
+
+
+Prenditi un momento per controllare queste 2 righe di codice:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+La variabile `url` è l'endpoint REST trovato nella scheda "Consume" e la variabile `api_key` è la chiave primaria trovata anch'essa nella scheda "Consume" (solo nel caso in cui tu abbia abilitato l'autenticazione). Questo è il modo in cui lo script può consumare l'endpoint.
+
+18. Eseguendo lo script, dovresti vedere il seguente output:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Questo significa che la previsione di insufficienza cardiaca per i dati forniti è vera. Questo ha senso perché, se guardi più da vicino i dati generati automaticamente nello script, tutto è impostato su 0 e falso per impostazione predefinita. Puoi cambiare i dati con il seguente esempio di input:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Lo script dovrebbe restituire:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Congratulazioni! Hai appena consumato il modello distribuito e lo hai addestrato su Azure ML!
+
+> **_NOTA:_** Una volta terminato il progetto, non dimenticare di eliminare tutte le risorse.
+## 🚀 Sfida
+
+Osserva attentamente le spiegazioni del modello e i dettagli che AutoML ha generato per i modelli migliori. Cerca di capire perché il miglior modello è migliore degli altri. Quali algoritmi sono stati confrontati? Quali sono le differenze tra loro? Perché il migliore sta performando meglio in questo caso?
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Revisione e studio autonomo
+
+In questa lezione, hai imparato come addestrare, distribuire e consumare un modello per prevedere il rischio di insufficienza cardiaca in modalità Low code/No code nel cloud. Se non lo hai ancora fatto, approfondisci le spiegazioni del modello che AutoML ha generato per i modelli migliori e cerca di capire perché il miglior modello è migliore degli altri.
+
+Puoi approfondire ulteriormente AutoML Low code/No code leggendo questa [documentazione](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Compito
+
+[Progetto di Data Science Low code/No code su Azure ML](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/it/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..2694a89e
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Progetto di Data Science Low code/No code su Azure ML
+
+## Istruzioni
+
+Abbiamo visto come utilizzare la piattaforma Azure ML per addestrare, distribuire e consumare un modello in modalità Low code/No code. Ora cerca dei dati che potresti utilizzare per addestrare un altro modello, distribuirlo e consumarlo. Puoi cercare dataset su [Kaggle](https://kaggle.com) e [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Criteri di valutazione
+
+| Esemplare | Adeguato | Da migliorare |
+|-----------|----------|---------------|
+|Quando hai caricato i dati, ti sei assicurato di modificare il tipo delle caratteristiche, se necessario. Hai anche pulito i dati, se necessario. Hai eseguito un addestramento su un dataset tramite AutoML e hai controllato le spiegazioni del modello. Hai distribuito il miglior modello e sei stato in grado di consumarlo. | Quando hai caricato i dati, ti sei assicurato di modificare il tipo delle caratteristiche, se necessario. Hai eseguito un addestramento su un dataset tramite AutoML, hai distribuito il miglior modello e sei stato in grado di consumarlo. | Hai distribuito il miglior modello addestrato da AutoML e sei stato in grado di consumarlo. |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/it/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..89c4f5e0
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,312 @@
+
+# Data Science nel Cloud: Il metodo "Azure ML SDK"
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Data Science nel Cloud: Azure ML SDK - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Indice:
+
+- [Data Science nel Cloud: Il metodo "Azure ML SDK"](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz Pre-Lettura](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Introduzione](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Cos'è Azure ML SDK?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Progetto di previsione dell'insufficienza cardiaca e introduzione al dataset](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Addestramento di un modello con Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Creare un workspace Azure ML](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Creare un'istanza di calcolo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Caricamento del dataset](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Creazione di notebook](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Addestramento di un modello](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Configurazione del workspace, esperimento, cluster di calcolo e dataset](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 Configurazione AutoML e addestramento](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Distribuzione del modello e consumo dell'endpoint con Azure ML SDK](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 Salvataggio del miglior modello](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Distribuzione del modello](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Consumo dell'endpoint](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Sfida](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Quiz Post-Lettura](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Revisione e Studio Autonomo](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Compito](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Quiz Pre-Lettura](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Introduzione
+
+### 1.1 Cos'è Azure ML SDK?
+
+I data scientist e gli sviluppatori di AI utilizzano l'SDK di Azure Machine Learning per costruire ed eseguire flussi di lavoro di machine learning con il servizio Azure Machine Learning. Puoi interagire con il servizio in qualsiasi ambiente Python, inclusi Jupyter Notebook, Visual Studio Code o il tuo IDE Python preferito.
+
+Le aree principali dell'SDK includono:
+
+- Esplorare, preparare e gestire il ciclo di vita dei dataset utilizzati negli esperimenti di machine learning.
+- Gestire le risorse cloud per monitorare, registrare e organizzare gli esperimenti di machine learning.
+- Addestrare modelli localmente o utilizzando risorse cloud, inclusi modelli accelerati da GPU.
+- Utilizzare il machine learning automatizzato, che accetta parametri di configurazione e dati di addestramento. Itera automaticamente tra algoritmi e impostazioni di iperparametri per trovare il miglior modello per eseguire previsioni.
+- Distribuire servizi web per convertire i modelli addestrati in servizi RESTful che possono essere consumati in qualsiasi applicazione.
+
+[Scopri di più sull'SDK di Azure Machine Learning](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+Nella [lezione precedente](../18-Low-Code/README.md), abbiamo visto come addestrare, distribuire e consumare un modello in modalità Low code/No code. Abbiamo utilizzato il dataset sull'insufficienza cardiaca per generare un modello di previsione dell'insufficienza cardiaca. In questa lezione, faremo esattamente la stessa cosa ma utilizzando l'SDK di Azure Machine Learning.
+
+
+
+### 1.2 Progetto di previsione dell'insufficienza cardiaca e introduzione al dataset
+
+Consulta [qui](../18-Low-Code/README.md) il progetto di previsione dell'insufficienza cardiaca e l'introduzione al dataset.
+
+## 2. Addestramento di un modello con Azure ML SDK
+### 2.1 Creare un workspace Azure ML
+
+Per semplicità, lavoreremo su un notebook Jupyter. Questo implica che tu abbia già un workspace e un'istanza di calcolo. Se hai già un workspace, puoi passare direttamente alla sezione 2.3 Creazione di notebook.
+
+In caso contrario, segui le istruzioni nella sezione **2.1 Creare un workspace Azure ML** nella [lezione precedente](../18-Low-Code/README.md) per creare un workspace.
+
+### 2.2 Creare un'istanza di calcolo
+
+Nel [workspace Azure ML](https://ml.azure.com/) che abbiamo creato in precedenza, vai al menu di calcolo e vedrai le diverse risorse di calcolo disponibili.
+
+
+
+Creiamo un'istanza di calcolo per fornire un notebook Jupyter.
+1. Clicca sul pulsante + Nuovo.
+2. Dai un nome alla tua istanza di calcolo.
+3. Scegli le opzioni: CPU o GPU, dimensione della VM e numero di core.
+4. Clicca sul pulsante Crea.
+
+Congratulazioni, hai appena creato un'istanza di calcolo! Utilizzeremo questa istanza di calcolo per creare un notebook nella sezione [Creazione di notebook](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+### 2.3 Caricamento del dataset
+Consulta la [lezione precedente](../18-Low-Code/README.md) nella sezione **2.3 Caricamento del dataset** se non hai ancora caricato il dataset.
+
+### 2.4 Creazione di notebook
+
+> **_NOTA:_** Per il prossimo passaggio puoi creare un nuovo notebook da zero oppure caricare il [notebook che abbiamo creato](notebook.ipynb) nel tuo Azure ML Studio. Per caricarlo, clicca semplicemente sul menu "Notebook" e carica il notebook.
+
+I notebook sono una parte davvero importante del processo di data science. Possono essere utilizzati per condurre analisi esplorative dei dati (EDA), chiamare un cluster di calcolo per addestrare un modello, chiamare un cluster di inferenza per distribuire un endpoint.
+
+Per creare un notebook, abbiamo bisogno di un nodo di calcolo che serva l'istanza del notebook Jupyter. Torna al [workspace Azure ML](https://ml.azure.com/) e clicca su Istanza di calcolo. Nell'elenco delle istanze di calcolo dovresti vedere l'[istanza di calcolo che abbiamo creato in precedenza](../../../../5-Data-Science-In-Cloud/19-Azure).
+
+1. Nella sezione Applicazioni, clicca sull'opzione Jupyter.
+2. Spunta la casella "Sì, ho capito" e clicca sul pulsante Continua.
+
+3. Questo dovrebbe aprire una nuova scheda del browser con la tua istanza di notebook Jupyter come segue. Clicca sul pulsante "Nuovo" per creare un notebook.
+
+
+
+Ora che abbiamo un notebook, possiamo iniziare ad addestrare il modello con Azure ML SDK.
+
+### 2.5 Addestramento di un modello
+
+Prima di tutto, se hai dubbi, consulta la [documentazione di Azure ML SDK](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Contiene tutte le informazioni necessarie per comprendere i moduli che vedremo in questa lezione.
+
+#### 2.5.1 Configurazione del workspace, esperimento, cluster di calcolo e dataset
+
+Devi caricare il `workspace` dal file di configurazione utilizzando il seguente codice:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Questo restituisce un oggetto di tipo `Workspace` che rappresenta il workspace. Poi devi creare un `esperimento` utilizzando il seguente codice:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Per ottenere o creare un esperimento da un workspace, richiedi l'esperimento utilizzando il nome dell'esperimento. Il nome dell'esperimento deve essere lungo 3-36 caratteri, iniziare con una lettera o un numero e può contenere solo lettere, numeri, underscore e trattini. Se l'esperimento non viene trovato nel workspace, viene creato un nuovo esperimento.
+
+Ora devi creare un cluster di calcolo per l'addestramento utilizzando il seguente codice. Nota che questo passaggio può richiedere alcuni minuti.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Puoi ottenere il dataset dal workspace utilizzando il nome del dataset nel seguente modo:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+#### 2.5.2 Configurazione AutoML e addestramento
+
+Per impostare la configurazione AutoML, utilizza la classe [AutoMLConfig](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+Come descritto nella documentazione, ci sono molti parametri con cui puoi giocare. Per questo progetto, utilizzeremo i seguenti parametri:
+
+- `experiment_timeout_minutes`: Il tempo massimo (in minuti) che l'esperimento è autorizzato a durare prima di essere automaticamente interrotto e i risultati resi disponibili.
+- `max_concurrent_iterations`: Il numero massimo di iterazioni di addestramento concorrenti consentite per l'esperimento.
+- `primary_metric`: La metrica principale utilizzata per determinare lo stato dell'esperimento.
+- `compute_target`: La risorsa di calcolo di Azure Machine Learning su cui eseguire l'esperimento di Machine Learning automatizzato.
+- `task`: Il tipo di attività da eseguire. I valori possono essere 'classification', 'regression' o 'forecasting' a seconda del tipo di problema di ML automatizzato da risolvere.
+- `training_data`: I dati di addestramento da utilizzare nell'esperimento. Dovrebbe contenere sia le caratteristiche di addestramento che una colonna di etichette (opzionalmente una colonna di pesi campione).
+- `label_column_name`: Il nome della colonna di etichette.
+- `path`: Il percorso completo alla cartella del progetto Azure Machine Learning.
+- `enable_early_stopping`: Indica se abilitare la terminazione anticipata se il punteggio non migliora nel breve termine.
+- `featurization`: Indicatore per determinare se il passaggio di featurizzazione deve essere eseguito automaticamente o meno, o se deve essere utilizzata una featurizzazione personalizzata.
+- `debug_log`: Il file di log in cui scrivere informazioni di debug.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Ora che hai impostato la configurazione, puoi addestrare il modello utilizzando il seguente codice. Questo passaggio può richiedere fino a un'ora a seconda della dimensione del cluster.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Puoi eseguire il widget RunDetails per mostrare i diversi esperimenti.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+## 3. Distribuzione del modello e consumo dell'endpoint con Azure ML SDK
+
+### 3.1 Salvataggio del miglior modello
+
+Il `remote_run` è un oggetto di tipo [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109). Questo oggetto contiene il metodo `get_output()` che restituisce il miglior run e il corrispondente modello adattato.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Puoi vedere i parametri utilizzati per il miglior modello semplicemente stampando il fitted_model e vedere le proprietà del miglior modello utilizzando il metodo [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+best_run.get_properties()
+```
+
+Ora registra il modello con il metodo [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+### 3.2 Distribuzione del modello
+
+Una volta salvato il miglior modello, possiamo distribuirlo con la classe [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109). InferenceConfig rappresenta le impostazioni di configurazione per un ambiente personalizzato utilizzato per la distribuzione. La classe [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) rappresenta un modello di machine learning distribuito come endpoint di servizio web su Azure Container Instances. Un servizio distribuito viene creato da un modello, uno script e file associati. Il servizio web risultante è un endpoint HTTP bilanciato con un'API REST. Puoi inviare dati a questa API e ricevere la previsione restituita dal modello.
+
+Il modello viene distribuito utilizzando il metodo [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Questo passaggio dovrebbe richiedere alcuni minuti.
+
+### 3.3 Consumo dell'endpoint
+
+Puoi consumare il tuo endpoint creando un input di esempio:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+E poi puoi inviare questo input al tuo modello per ottenere una previsione:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Questo dovrebbe restituire `'{"result": [false]}'`. Questo significa che l'input del paziente che abbiamo inviato all'endpoint ha generato la previsione `false`, il che indica che questa persona non è probabilmente a rischio di infarto.
+
+Congratulazioni! Hai appena utilizzato il modello distribuito e addestrato su Azure ML con l'SDK di Azure ML!
+
+> **_NOTE:_** Una volta completato il progetto, non dimenticare di eliminare tutte le risorse.
+
+## 🚀 Sfida
+
+Ci sono molte altre cose che puoi fare tramite l'SDK, purtroppo non possiamo esplorarle tutte in questa lezione. Ma una buona notizia: imparare a consultare la documentazione dell'SDK può portarti lontano da solo. Dai un'occhiata alla documentazione dell'SDK di Azure ML e trova la classe `Pipeline` che ti permette di creare pipeline. Una Pipeline è una raccolta di passaggi che possono essere eseguiti come un flusso di lavoro.
+
+**SUGGERIMENTO:** Vai alla [documentazione dell'SDK](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) e digita parole chiave nella barra di ricerca come "Pipeline". Dovresti trovare la classe `azureml.pipeline.core.Pipeline` nei risultati di ricerca.
+
+## [Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Revisione e Studio Autonomo
+
+In questa lezione, hai imparato come addestrare, distribuire e utilizzare un modello per prevedere il rischio di insufficienza cardiaca con l'SDK di Azure ML nel cloud. Consulta questa [documentazione](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) per ulteriori informazioni sull'SDK di Azure ML. Prova a creare il tuo modello con l'SDK di Azure ML.
+
+## Compito
+
+[Progetto di Data Science utilizzando l'SDK di Azure ML](assignment.md)
+
+---
+
+**Disclaimer (Avvertenza)**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di tenere presente che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali malintesi o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/it/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..f3574313
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Progetto di Data Science con Azure ML SDK
+
+## Istruzioni
+
+Abbiamo visto come utilizzare la piattaforma Azure ML per addestrare, distribuire e utilizzare un modello con l'Azure ML SDK. Ora cerca dei dati che potresti utilizzare per addestrare un altro modello, distribuirlo e utilizzarlo. Puoi cercare dataset su [Kaggle](https://kaggle.com) e [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109).
+
+## Criteri di valutazione
+
+| Esemplare | Adeguato | Da migliorare |
+|-----------|----------|---------------|
+|Durante la configurazione di AutoML, hai consultato la documentazione dell’SDK per vedere quali parametri potevi utilizzare. Hai eseguito un addestramento su un dataset tramite AutoML utilizzando Azure ML SDK e hai verificato le spiegazioni del modello. Hai distribuito il miglior modello e sei stato in grado di utilizzarlo tramite Azure ML SDK. | Hai eseguito un addestramento su un dataset tramite AutoML utilizzando Azure ML SDK e hai verificato le spiegazioni del modello. Hai distribuito il miglior modello e sei stato in grado di utilizzarlo tramite Azure ML SDK. | Hai eseguito un addestramento su un dataset tramite AutoML utilizzando Azure ML SDK. Hai distribuito il miglior modello e sei stato in grado di utilizzarlo tramite Azure ML SDK. |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa deve essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/5-Data-Science-In-Cloud/README.md b/translations/it/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..c03d5541
--- /dev/null
+++ b/translations/it/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Data Science nel Cloud
+
+
+
+> Foto di [Jelleke Vanooteghem](https://unsplash.com/@ilumire) da [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape)
+
+Quando si tratta di fare data science con big data, il cloud può essere una svolta. Nelle prossime tre lezioni, vedremo cos'è il cloud e perché può essere molto utile. Esploreremo anche un dataset relativo all'insufficienza cardiaca e costruiremo un modello per aiutare a valutare la probabilità che qualcuno abbia un'insufficienza cardiaca. Utilizzeremo la potenza del cloud per addestrare, distribuire e utilizzare un modello in due modi diversi. Un modo utilizzando solo l'interfaccia utente in modalità Low code/No code, l'altro modo utilizzando l'Azure Machine Learning Software Developer Kit (Azure ML SDK).
+
+
+
+### Argomenti
+
+1. [Perché usare il Cloud per la Data Science?](17-Introduction/README.md)
+2. [Data Science nel Cloud: Il metodo "Low code/No code"](18-Low-Code/README.md)
+3. [Data Science nel Cloud: Il metodo "Azure ML SDK"](19-Azure/README.md)
+
+### Crediti
+Queste lezioni sono state scritte con ☁️ e 💕 da [Maud Levy](https://twitter.com/maudstweets) e [Tiffany Souterre](https://twitter.com/TiffanySouterre)
+
+I dati per il progetto di Predizione dell'Insufficienza Cardiaca provengono da [
+Larxel](https://www.kaggle.com/andrewmvd) su [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data). Sono concessi sotto licenza [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/it/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..ceee6204
--- /dev/null
+++ b/translations/it/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,155 @@
+
+# Data Science nel Mondo Reale
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Data Science nel Mondo Reale - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Siamo quasi alla fine di questo percorso di apprendimento!
+
+Abbiamo iniziato con le definizioni di data science ed etica, esplorato vari strumenti e tecniche per l'analisi e la visualizzazione dei dati, esaminato il ciclo di vita della data science e analizzato come scalare e automatizzare i flussi di lavoro di data science con i servizi di cloud computing. Quindi, probabilmente ti stai chiedendo: _"Come posso applicare tutto ciò che ho imparato ai contesti del mondo reale?"_
+
+In questa lezione, esploreremo le applicazioni reali della data science in diversi settori e approfondiremo esempi specifici nei contesti di ricerca, discipline umanistiche digitali e sostenibilità. Esamineremo opportunità di progetti per studenti e concluderemo con risorse utili per continuare il tuo percorso di apprendimento!
+
+## Quiz Pre-Lezione
+
+[Quiz pre-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Data Science + Industria
+
+Grazie alla democratizzazione dell'AI, gli sviluppatori trovano sempre più facile progettare e integrare decisioni basate sull'AI e intuizioni basate sui dati nelle esperienze utente e nei flussi di lavoro di sviluppo. Ecco alcuni esempi di come la data science viene "applicata" a contesti reali nell'industria:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) ha utilizzato la data science per correlare i termini di ricerca con le tendenze influenzali. Sebbene l'approccio avesse delle lacune, ha aumentato la consapevolezza sulle possibilità (e sfide) delle previsioni sanitarie basate sui dati.
+
+ * [Previsioni di Routing UPS](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - spiega come UPS utilizza la data science e il machine learning per prevedere i percorsi ottimali per le consegne, tenendo conto delle condizioni meteorologiche, dei modelli di traffico, delle scadenze di consegna e altro ancora.
+
+ * [Visualizzazione dei Percorsi dei Taxi di NYC](http://chriswhong.github.io/nyctaxi/) - i dati raccolti utilizzando le [Leggi sulla Libertà di Informazione](https://chriswhong.com/open-data/foil_nyc_taxi/) hanno aiutato a visualizzare una giornata nella vita dei taxi di NYC, permettendoci di capire come navigano nella città affollata, i guadagni e la durata dei viaggi in un periodo di 24 ore.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - utilizza i dati (su luoghi di prelievo e rilascio, durata dei viaggi, percorsi preferiti ecc.) raccolti da milioni di viaggi Uber *quotidianamente* per costruire uno strumento di analisi dei dati utile per prezzi, sicurezza, rilevamento delle frodi e decisioni di navigazione.
+
+ * [Analisi Sportiva](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - si concentra su _analisi predittiva_ (analisi di squadra e giocatori - pensa a [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) - e gestione dei fan) e _visualizzazione dei dati_ (dashboard di squadra e fan, giochi ecc.) con applicazioni come scouting di talenti, scommesse sportive e gestione di inventari/luoghi.
+
+ * [Data Science nel Settore Bancario](https://data-flair.training/blogs/data-science-in-banking/) - evidenzia il valore della data science nel settore finanziario con applicazioni che spaziano dalla modellazione del rischio e rilevamento delle frodi, alla segmentazione dei clienti, previsioni in tempo reale e sistemi di raccomandazione. L'analisi predittiva guida anche misure critiche come i [credit scores](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit).
+
+ * [Data Science nella Sanità](https://data-flair.training/blogs/data-science-in-healthcare/) - evidenzia applicazioni come imaging medico (es. MRI, raggi X, TAC), genomica (sequenziamento del DNA), sviluppo di farmaci (valutazione del rischio, previsione del successo), analisi predittiva (cura dei pazienti e logistica delle forniture), monitoraggio e prevenzione delle malattie ecc.
+
+ Crediti Immagine: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+La figura mostra altri domini ed esempi per l'applicazione delle tecniche di data science. Vuoi esplorare altre applicazioni? Dai un'occhiata alla sezione [Review & Self Study](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) qui sotto.
+
+## Data Science + Ricerca
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Ricerca - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Mentre le applicazioni reali spesso si concentrano su casi d'uso industriali su larga scala, le applicazioni e i progetti di _ricerca_ possono essere utili da due prospettive:
+
+* _opportunità di innovazione_ - esplorare prototipi rapidi di concetti avanzati e testare esperienze utente per applicazioni di nuova generazione.
+* _sfide di implementazione_ - indagare i potenziali danni o conseguenze indesiderate delle tecnologie di data science nei contesti reali.
+
+Per gli studenti, questi progetti di ricerca possono offrire opportunità di apprendimento e collaborazione che migliorano la comprensione dell'argomento e ampliano la consapevolezza e il coinvolgimento con persone o team rilevanti che lavorano in aree di interesse. Ma come sono i progetti di ricerca e come possono avere un impatto?
+
+Esaminiamo un esempio: lo studio [MIT Gender Shades](http://gendershades.org/overview.html) di Joy Buolamwini (MIT Media Labs) con un [articolo di ricerca](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) co-autore con Timnit Gebru (all'epoca presso Microsoft Research) che si concentra su:
+
+ * **Cosa:** L'obiettivo del progetto di ricerca era _valutare i bias presenti negli algoritmi e nei dataset di analisi facciale automatizzata_ basati su genere e tipo di pelle.
+ * **Perché:** L'analisi facciale è utilizzata in ambiti come forze dell'ordine, sicurezza aeroportuale, sistemi di assunzione e altro - contesti in cui classificazioni inaccurate (es. a causa di bias) possono causare danni economici e sociali agli individui o gruppi interessati. Comprendere (ed eliminare o mitigare) i bias è fondamentale per l'equità nell'uso.
+ * **Come:** I ricercatori hanno riconosciuto che i benchmark esistenti utilizzavano prevalentemente soggetti con pelle chiara e hanno curato un nuovo dataset (1000+ immagini) _più bilanciato_ per genere e tipo di pelle. Il dataset è stato utilizzato per valutare l'accuratezza di tre prodotti di classificazione di genere (di Microsoft, IBM e Face++).
+
+I risultati hanno mostrato che, sebbene l'accuratezza complessiva della classificazione fosse buona, c'era una differenza evidente nei tassi di errore tra vari sottogruppi - con **misgendering** più alto per donne o persone con pelle più scura, indicativo di bias.
+
+**Risultati Chiave:** Ha aumentato la consapevolezza che la data science necessita di _dataset più rappresentativi_ (sottogruppi bilanciati) e _team più inclusivi_ (background diversificati) per riconoscere ed eliminare o mitigare tali bias nelle soluzioni AI. Sforzi di ricerca come questo sono anche fondamentali per molte organizzazioni nella definizione di principi e pratiche per _AI responsabile_ per migliorare l'equità nei loro prodotti e processi AI.
+
+**Vuoi conoscere gli sforzi di ricerca rilevanti in Microsoft?**
+
+* Dai un'occhiata ai [Progetti di Ricerca Microsoft](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) sull'Intelligenza Artificiale.
+* Esplora i progetti degli studenti della [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/).
+* Dai un'occhiata al progetto [Fairlearn](https://fairlearn.org/) e alle iniziative [AI Responsabile](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6).
+
+## Data Science + Discipline Umanistiche
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Discipline Umanistiche Digitali - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+Le Discipline Umanistiche Digitali [sono state definite](https://digitalhumanities.stanford.edu/about-dh-stanford) come "una raccolta di pratiche e approcci che combinano metodi computazionali con l'indagine umanistica". I [progetti di Stanford](https://digitalhumanities.stanford.edu/projects) come _"rebooting history"_ e _"poetic thinking"_ illustrano il collegamento tra [Discipline Umanistiche Digitali e Data Science](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) - enfatizzando tecniche come analisi di rete, visualizzazione delle informazioni, analisi spaziale e testuale che possono aiutarci a rivisitare dataset storici e letterari per derivare nuove intuizioni e prospettive.
+
+*Vuoi esplorare ed estendere un progetto in questo ambito?*
+
+Dai un'occhiata a ["Emily Dickinson and the Meter of Mood"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - un ottimo esempio di [Jen Looper](https://twitter.com/jenlooper) che si chiede come possiamo utilizzare la data science per rivisitare poesie familiari e rivalutare il loro significato e i contributi del loro autore in nuovi contesti. Ad esempio, _possiamo prevedere la stagione in cui una poesia è stata scritta analizzandone il tono o il sentimento_ - e cosa ci dice questo sullo stato d'animo dell'autore nel periodo rilevante?
+
+Per rispondere a questa domanda, seguiamo i passaggi del ciclo di vita della data science:
+ * [`Acquisizione dei Dati`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - per raccogliere un dataset rilevante per l'analisi. Le opzioni includono l'uso di un'API (es. [Poetry DB API](https://poetrydb.org/index.html)) o il web scraping (es. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) utilizzando strumenti come [Scrapy](https://scrapy.org/).
+ * [`Pulizia dei Dati`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - spiega come il testo può essere formattato, sanitizzato e semplificato utilizzando strumenti di base come Visual Studio Code e Microsoft Excel.
+ * [`Analisi dei Dati`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - spiega come possiamo ora importare il dataset nei "Notebooks" per l'analisi utilizzando pacchetti Python (come pandas, numpy e matplotlib) per organizzare e visualizzare i dati.
+ * [`Analisi del Sentimento`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - spiega come possiamo integrare servizi cloud come Text Analytics, utilizzando strumenti low-code come [Power Automate](https://flow.microsoft.com/en-us/) per flussi di lavoro automatizzati di elaborazione dei dati.
+
+Seguendo questo workflow, possiamo esplorare gli impatti stagionali sul sentimento delle poesie e aiutarci a formare le nostre prospettive sull'autore. Prova tu stesso - poi estendi il notebook per porre altre domande o visualizzare i dati in modi nuovi!
+
+> Puoi utilizzare alcuni degli strumenti nel [Digital Humanities toolkit](https://github.com/Digital-Humanities-Toolkit) per perseguire queste linee di indagine.
+
+## Data Science + Sostenibilità
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Data Science & Sostenibilità - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+L'[Agenda 2030 per lo Sviluppo Sostenibile](https://sdgs.un.org/2030agenda) - adottata da tutti i membri delle Nazioni Unite nel 2015 - identifica 17 obiettivi, inclusi quelli che si concentrano su **Proteggere il Pianeta** dalla degradazione e dall'impatto del cambiamento climatico. L'iniziativa [Microsoft Sustainability](https://www.microsoft.com/en-us/sustainability) supporta questi obiettivi esplorando modi in cui le soluzioni tecnologiche possono sostenere e costruire futuri più sostenibili con un [focus su 4 obiettivi](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) - essere carbon negative, water positive, zero waste e bio-diverse entro il 2030.
+
+Affrontare queste sfide in modo scalabile e tempestivo richiede un pensiero su scala cloud - e dati su larga scala. L'iniziativa [Planetary Computer](https://planetarycomputer.microsoft.com/) fornisce 4 componenti per aiutare data scientist e sviluppatori in questo sforzo:
+
+ * [Catalogo Dati](https://planetarycomputer.microsoft.com/catalog) - con petabyte di dati sui sistemi terrestri (gratuiti e ospitati su Azure).
+ * [API Planetary](https://planetarycomputer.microsoft.com/docs/reference/stac/) - per aiutare gli utenti a cercare dati rilevanti nello spazio e nel tempo.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - ambiente gestito per gli scienziati per elaborare enormi dataset geospaziali.
+ * [Applicazioni](https://planetarycomputer.microsoft.com/applications) - mostrano casi d'uso e strumenti per intuizioni sulla sostenibilità.
+**Il progetto Planetary Computer è attualmente in anteprima (a partire da settembre 2021)** - ecco come puoi iniziare a contribuire a soluzioni sostenibili utilizzando la scienza dei dati.
+
+* [Richiedi l'accesso](https://planetarycomputer.microsoft.com/account/request) per iniziare l'esplorazione e connetterti con altri utenti.
+* [Esplora la documentazione](https://planetarycomputer.microsoft.com/docs/overview/about) per comprendere i dataset e le API supportate.
+* Esplora applicazioni come [Ecosystem Monitoring](https://analytics-lab.org/ecosystemmonitoring/) per trovare ispirazione su idee applicative.
+
+Pensa a come puoi utilizzare la visualizzazione dei dati per evidenziare o amplificare intuizioni rilevanti su temi come il cambiamento climatico e la deforestazione. Oppure considera come queste intuizioni possano essere utilizzate per creare nuove esperienze utente che motivino cambiamenti comportamentali per uno stile di vita più sostenibile.
+
+## Scienza dei dati + Studenti
+
+Abbiamo parlato di applicazioni reali nell'industria e nella ricerca, ed esplorato esempi di applicazioni della scienza dei dati nelle discipline umanistiche digitali e nella sostenibilità. Quindi, come puoi sviluppare le tue competenze e condividere la tua esperienza come principianti nella scienza dei dati?
+
+Ecco alcuni esempi di progetti di studenti di scienza dei dati per ispirarti.
+
+ * [MSR Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects) con [progetti](https://github.com/msr-ds3) su GitHub che esplorano argomenti come:
+ - [Pregiudizi razziali nell'uso della forza da parte della polizia](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [Affidabilità del sistema della metropolitana di New York](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+ * [Digitalizzazione della cultura materiale: esplorazione delle distribuzioni socio-economiche a Sirkap](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - da [Ornella Altunyan](https://twitter.com/ornelladotcom) e il team di Claremont, utilizzando [ArcGIS StoryMaps](https://storymaps.arcgis.com/).
+
+## 🚀 Sfida
+
+Cerca articoli che raccomandano progetti di scienza dei dati adatti ai principianti - come [queste 50 aree tematiche](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/) o [queste 21 idee di progetto](https://www.intellspot.com/data-science-project-ideas) o [questi 16 progetti con codice sorgente](https://data-flair.training/blogs/data-science-project-ideas/) che puoi analizzare e rielaborare. E non dimenticare di scrivere un blog sui tuoi percorsi di apprendimento e condividere le tue intuizioni con tutti noi.
+
+## Quiz post-lezione
+
+[Quiz post-lezione](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Revisione e studio autonomo
+
+Vuoi esplorare altri casi d'uso? Ecco alcuni articoli rilevanti:
+ * [17 Applicazioni ed esempi di scienza dei dati](https://builtin.com/data-science/data-science-applications-examples) - Luglio 2021
+ * [11 Applicazioni straordinarie della scienza dei dati nel mondo reale](https://myblindbird.com/data-science-applications-real-world/) - Maggio 2021
+ * [Scienza dei dati nel mondo reale](https://towardsdatascience.com/data-science-in-the-real-world/home) - Raccolta di articoli
+ * Scienza dei dati in: [Educazione](https://data-flair.training/blogs/data-science-in-education/), [Agricoltura](https://data-flair.training/blogs/data-science-in-agriculture/), [Finanza](https://data-flair.training/blogs/data-science-in-finance/), [Cinema](https://data-flair.training/blogs/data-science-at-movies/) e altro.
+
+## Compito
+
+[Esplora un dataset del Planetary Computer](assignment.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/it/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..015a3da2
--- /dev/null
+++ b/translations/it/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Esplora un Dataset del Planetary Computer
+
+## Istruzioni
+
+In questa lezione, abbiamo parlato di vari ambiti applicativi della data science, approfondendo esempi legati alla ricerca, alla sostenibilità e alle scienze umane digitali. In questo compito, esplorerai uno di questi esempi in modo più dettagliato e applicherai alcune delle tue conoscenze su visualizzazioni e analisi dei dati per ricavare informazioni sui dati relativi alla sostenibilità.
+
+Il progetto [Planetary Computer](https://planetarycomputer.microsoft.com/) offre dataset e API accessibili con un account - richiedine uno per accedere al passaggio bonus dell'assegnazione. Il sito fornisce anche una funzione di [Explorer](https://planetarycomputer.microsoft.com/explore) che puoi utilizzare senza creare un account.
+
+`Passaggi:`
+L'interfaccia Explorer (mostrata nello screenshot qui sotto) ti consente di selezionare un dataset (tra le opzioni disponibili), una query preimpostata (per filtrare i dati) e un'opzione di rendering (per creare una visualizzazione pertinente). In questo compito, il tuo obiettivo è:
+
+ 1. Leggere la [documentazione di Explorer](https://planetarycomputer.microsoft.com/docs/overview/explorer/) - comprendere le opzioni disponibili.
+ 2. Esplorare il [Catalogo](https://planetarycomputer.microsoft.com/catalog) dei dataset - imparare lo scopo di ciascuno.
+ 3. Utilizzare l'Explorer - scegliere un dataset di interesse, selezionare una query e un'opzione di rendering pertinenti.
+
+
+
+`Il tuo compito:`
+Ora studia la visualizzazione che viene generata nel browser e rispondi alle seguenti domande:
+ * Quali _caratteristiche_ ha il dataset?
+ * Quali _informazioni_ o risultati fornisce la visualizzazione?
+ * Quali sono le _implicazioni_ di queste informazioni per gli obiettivi di sostenibilità del progetto?
+ * Quali sono le _limitazioni_ della visualizzazione (cioè, quali informazioni non hai ottenuto)?
+ * Se potessi accedere ai dati grezzi, quali _visualizzazioni alternative_ creeresti e perché?
+
+`Punti Bonus:`
+Richiedi un account - e accedi una volta accettato.
+ * Usa l'opzione _Launch Hub_ per aprire i dati grezzi in un Notebook.
+ * Esplora i dati in modo interattivo e implementa le visualizzazioni alternative che hai pensato.
+ * Ora analizza le tue visualizzazioni personalizzate - sei riuscito a ricavare le informazioni che ti erano sfuggite prima?
+
+## Rubrica
+
+Esemplare | Adeguato | Da Migliorare
+--- | --- | -- |
+Tutte e cinque le domande principali sono state risposte. Lo studente ha identificato chiaramente come le visualizzazioni attuali e alternative potrebbero fornire informazioni sugli obiettivi o i risultati di sostenibilità. | Lo studente ha risposto almeno alle prime 3 domande in modo dettagliato, dimostrando di aver avuto esperienza pratica con l'Explorer. | Lo studente non ha risposto a più domande o ha fornito dettagli insufficienti, indicando che non è stato fatto un tentativo significativo per il progetto. |
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/6-Data-Science-In-Wild/README.md b/translations/it/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..f318dde0
--- /dev/null
+++ b/translations/it/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Data Science nel Mondo Reale
+
+Applicazioni pratiche della data science in diversi settori.
+
+### Argomenti
+
+1. [Data Science nel Mondo Reale](20-Real-World-Examples/README.md)
+
+### Crediti
+
+Scritto con ❤️ da [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale effettuata da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/CODE_OF_CONDUCT.md b/translations/it/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..d74e8ddd
--- /dev/null
+++ b/translations/it/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Codice di Condotta per l'Open Source di Microsoft
+
+Questo progetto ha adottato il [Codice di Condotta per l'Open Source di Microsoft](https://opensource.microsoft.com/codeofconduct/).
+
+Risorse:
+
+- [Codice di Condotta per l'Open Source di Microsoft](https://opensource.microsoft.com/codeofconduct/)
+- [FAQ sul Codice di Condotta di Microsoft](https://opensource.microsoft.com/codeofconduct/faq/)
+- Contatta [opencode@microsoft.com](mailto:opencode@microsoft.com) per domande o preoccupazioni
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/CONTRIBUTING.md b/translations/it/CONTRIBUTING.md
new file mode 100644
index 00000000..2ed95af8
--- /dev/null
+++ b/translations/it/CONTRIBUTING.md
@@ -0,0 +1,23 @@
+
+# Contribuire
+
+Questo progetto accoglie con favore contributi e suggerimenti. La maggior parte dei contributi richiede che tu accetti un Accordo di Licenza per Contributori (CLA) dichiarando che hai il diritto di, e effettivamente concedi a noi, i diritti di utilizzare il tuo contributo. Per maggiori dettagli, visita https://cla.microsoft.com.
+
+Quando invii una pull request, un bot CLA determinerà automaticamente se è necessario fornire un CLA e decorerà la PR di conseguenza (ad esempio, etichetta, commento). Segui semplicemente le istruzioni fornite dal bot. Dovrai farlo solo una volta per tutti i repository che utilizzano il nostro CLA.
+
+Questo progetto ha adottato il [Codice di Condotta Open Source di Microsoft](https://opensource.microsoft.com/codeofconduct/).
+Per ulteriori informazioni, consulta le [FAQ sul Codice di Condotta](https://opensource.microsoft.com/codeofconduct/faq/)
+o contatta [opencode@microsoft.com](mailto:opencode@microsoft.com) per eventuali domande o commenti aggiuntivi.
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/README.md b/translations/it/README.md
new file mode 100644
index 00000000..2865d879
--- /dev/null
+++ b/translations/it/README.md
@@ -0,0 +1,163 @@
+
+# Data Science per Principianti - Un Curriculum
+
+Azure Cloud Advocates di Microsoft sono lieti di offrire un curriculum di 10 settimane e 20 lezioni dedicato alla Data Science. Ogni lezione include quiz pre-lezione e post-lezione, istruzioni scritte per completare la lezione, una soluzione e un compito. La nostra pedagogia basata sui progetti ti permette di imparare costruendo, un metodo comprovato per far sì che le nuove competenze rimangano impresse.
+
+**Un sentito ringraziamento ai nostri autori:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Un ringraziamento speciale 🙏 ai nostri [Microsoft Student Ambassador](https://studentambassadors.microsoft.com/) autori, revisori e collaboratori di contenuti,** tra cui Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200), [Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar, [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+||
+|:---:|
+| Data Science per Principianti - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+## Annuncio - Nuovo Curriculum su Generative AI appena rilasciato!
+
+Abbiamo appena rilasciato un curriculum di 12 lezioni sulla generative AI. Vieni a scoprire argomenti come:
+
+- tecniche di prompting e prompt engineering
+- generazione di app di testo e immagini
+- app di ricerca
+
+Come sempre, ci sono lezioni, compiti da completare, verifiche di conoscenza e sfide.
+
+Scoprilo qui:
+
+> https://aka.ms/genai-beginners
+
+# Sei uno studente?
+
+Inizia con le seguenti risorse:
+
+- [Pagina Student Hub](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) In questa pagina troverai risorse per principianti, pacchetti per studenti e persino modi per ottenere un voucher gratuito per la certificazione. È una pagina da salvare nei preferiti e controllare di tanto in tanto, poiché il contenuto viene aggiornato almeno mensilmente.
+- [Microsoft Learn Student Ambassadors](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Unisciti a una comunità globale di ambasciatori studenti, potrebbe essere il tuo ingresso in Microsoft.
+
+# Per iniziare
+
+> **Insegnanti**: abbiamo [incluso alcune indicazioni](for-teachers.md) su come utilizzare questo curriculum. Ci piacerebbe ricevere il vostro feedback [nel nostro forum di discussione](https://github.com/microsoft/Data-Science-For-Beginners/discussions)!
+
+> **[Studenti](https://aka.ms/student-page)**: per utilizzare questo curriculum autonomamente, fai un fork dell'intero repository e completa gli esercizi da solo, iniziando con un quiz pre-lezione. Poi leggi la lezione e completa il resto delle attività. Cerca di creare i progetti comprendendo le lezioni piuttosto che copiando il codice della soluzione; tuttavia, quel codice è disponibile nelle cartelle /solutions in ogni lezione orientata ai progetti. Un'altra idea potrebbe essere formare un gruppo di studio con amici e affrontare il contenuto insieme. Per ulteriori studi, consigliamo [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum).
+
+## Incontra il Team
+
+[](https://youtu.be/8mzavjQSMM4 "Video promozionale")
+
+**Gif di** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Clicca sull'immagine sopra per un video sul progetto e sulle persone che lo hanno creato!
+
+## Pedagogia
+
+Abbiamo scelto due principi pedagogici per costruire questo curriculum: garantire che sia basato su progetti e che includa quiz frequenti. Alla fine di questa serie, gli studenti avranno appreso i principi base della data science, inclusi concetti etici, preparazione dei dati, diversi modi di lavorare con i dati, visualizzazione dei dati, analisi dei dati, casi d'uso reali della data science e altro ancora.
+
+Inoltre, un quiz a basso rischio prima della lezione orienta lo studente verso l'apprendimento di un argomento, mentre un secondo quiz dopo la lezione garantisce una maggiore ritenzione. Questo curriculum è stato progettato per essere flessibile e divertente e può essere seguito interamente o in parte. I progetti iniziano piccoli e diventano sempre più complessi entro la fine del ciclo di 10 settimane.
+
+> Trova il nostro [Codice di Condotta](CODE_OF_CONDUCT.md), [Linee guida per il Contributo](CONTRIBUTING.md), [Linee guida per la Traduzione](TRANSLATIONS.md). Accogliamo con favore il tuo feedback costruttivo!
+
+## Ogni lezione include:
+
+- Sketchnote opzionale
+- Video supplementare opzionale
+- Quiz di riscaldamento pre-lezione
+- Lezione scritta
+- Per le lezioni basate su progetti, guide passo-passo su come costruire il progetto
+- Verifiche di conoscenza
+- Una sfida
+- Letture supplementari
+- Compito
+- Quiz post-lezione
+
+> **Nota sui quiz**: Tutti i quiz sono contenuti nella cartella Quiz-App, per un totale di 40 quiz di tre domande ciascuno. Sono collegati all'interno delle lezioni, ma l'app quiz può essere eseguita localmente o distribuita su Azure; segui le istruzioni nella cartella `quiz-app`. I quiz vengono gradualmente localizzati.
+
+## Lezioni
+
+|](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Data Science per Principianti: Roadmap - _Sketchnote di [@nitya](https://twitter.com/nitya)_ |
+
+| Numero Lezione | Argomento | Raggruppamento Lezione | Obiettivi di Apprendimento | Lezione Collegata | Autore |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Definire la Data Science | [Introduzione](1-Introduction/README.md) | Impara i concetti base della data science e come è correlata all'intelligenza artificiale, al machine learning e ai big data. | [lezione](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Etica della Data Science | [Introduzione](1-Introduction/README.md) | Concetti di etica dei dati, sfide e framework. | [lezione](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Definire i Dati | [Introduzione](1-Introduction/README.md) | Come i dati sono classificati e le loro fonti comuni. | [lezione](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | Introduzione a Statistica e Probabilità | [Introduzione](1-Introduction/README.md) | Le tecniche matematiche di probabilità e statistica per comprendere i dati. | [lezione](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | Lavorare con Dati Relazionali | [Lavorare con i Dati](2-Working-With-Data/README.md) | Introduzione ai dati relazionali e alle basi dell'esplorazione e analisi dei dati relazionali con il linguaggio SQL (Structured Query Language). | [lezione](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | Lavorare con Dati NoSQL | [Lavorare con i Dati](2-Working-With-Data/README.md) | Introduzione ai dati non relazionali, ai loro vari tipi e alle basi dell'esplorazione e analisi dei database documentali. | [lezione](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Lavorare con Python | [Lavorare con i Dati](2-Working-With-Data/README.md) | Basi dell'uso di Python per l'esplorazione dei dati con librerie come Pandas. È consigliata una comprensione di base della programmazione in Python. | [lezione](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Preparazione dei Dati | [Lavorare con i Dati](2-Working-With-Data/README.md) | Argomenti sulle tecniche di pulizia e trasformazione dei dati per affrontare le sfide di dati mancanti, inaccurati o incompleti. | [lezione](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Visualizzare le Quantità | [Visualizzazione dei Dati](3-Data-Visualization/README.md) | Impara a utilizzare Matplotlib per visualizzare i dati sugli uccelli 🦆 | [lezione](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Visualizzare le Distribuzioni dei Dati | [Visualizzazione dei Dati](3-Data-Visualization/README.md) | Visualizzare osservazioni e tendenze all'interno di un intervallo. | [lezione](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Visualizzare le Proporzioni | [Visualizzazione dei Dati](3-Data-Visualization/README.md) | Visualizzare percentuali discrete e raggruppate. | [lezione](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | Visualizzare le Relazioni | [Visualizzazione dei Dati](3-Data-Visualization/README.md) | Visualizzare connessioni e correlazioni tra insiemi di dati e le loro variabili. | [lezione](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Visualizzazioni Significative | [Visualizzazione dei Dati](3-Data-Visualization/README.md) | Tecniche e linee guida per rendere le tue visualizzazioni utili per una risoluzione efficace dei problemi e per ottenere insight. | [lezione](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Introduzione al Ciclo di Vita della Data Science | [Ciclo di Vita](4-Data-Science-Lifecycle/README.md) | Introduzione al ciclo di vita della data science e al suo primo passo: acquisire ed estrarre i dati. | [lezione](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analisi | [Ciclo di Vita](4-Data-Science-Lifecycle/README.md) | Questa fase del ciclo di vita della data science si concentra sulle tecniche per analizzare i dati. | [lezione](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | Comunicazione | [Ciclo di Vita](4-Data-Science-Lifecycle/README.md) | Questa fase del ciclo di vita della data science si concentra sulla presentazione degli insight dai dati in modo che siano facilmente comprensibili per i decisori. | [lezione](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Data Science nel Cloud | [Dati nel Cloud](5-Data-Science-In-Cloud/README.md) | Questa serie di lezioni introduce la data science nel cloud e i suoi benefici. | [lezione](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 18 | Data Science nel Cloud | [Dati nel Cloud](5-Data-Science-In-Cloud/README.md) | Addestrare modelli utilizzando strumenti Low Code. | [lezione](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 19 | Data Science nel Cloud | [Dati nel Cloud](5-Data-Science-In-Cloud/README.md) | Distribuire modelli con Azure Machine Learning Studio. | [lezione](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) e [Maud](https://twitter.com/maudstweets) |
+| 20 | Data Science nel Mondo Reale | [Nel Mondo Reale](6-Data-Science-In-Wild/README.md) | Progetti di data science applicati al mondo reale. | [lezione](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Segui questi passaggi per aprire questo esempio in un Codespace:
+1. Clicca sul menu a discesa "Code" e seleziona l'opzione "Open with Codespaces".
+2. Seleziona + Nuovo Codespace in basso nel pannello.
+Per maggiori informazioni, consulta la [documentazione di GitHub](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace).
+
+## VSCode Remote - Containers
+Segui questi passaggi per aprire questo repository in un container utilizzando la tua macchina locale e VSCode con l'estensione VS Code Remote - Containers:
+
+1. Se è la prima volta che utilizzi un container di sviluppo, assicurati che il tuo sistema soddisfi i prerequisiti (ad esempio, avere Docker installato) nella [documentazione introduttiva](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+Per utilizzare questo repository, puoi aprirlo in un volume Docker isolato:
+
+**Nota**: In background, verrà utilizzato il comando Remote-Containers: **Clone Repository in Container Volume...** per clonare il codice sorgente in un volume Docker invece che nel file system locale. I [volumi](https://docs.docker.com/storage/volumes/) sono il meccanismo preferito per la persistenza dei dati nei container.
+
+Oppure apri una versione clonata o scaricata localmente del repository:
+
+- Clona questo repository nel tuo file system locale.
+- Premi F1 e seleziona il comando **Remote-Containers: Open Folder in Container...**.
+- Seleziona la copia clonata di questa cartella, attendi l'avvio del container e prova le funzionalità.
+
+## Accesso Offline
+
+Puoi eseguire questa documentazione offline utilizzando [Docsify](https://docsify.js.org/#/). Fai un fork di questo repository, [installa Docsify](https://docsify.js.org/#/quickstart) sulla tua macchina locale, quindi nella cartella principale di questo repository, digita `docsify serve`. Il sito web sarà servito sulla porta 3000 del tuo localhost: `localhost:3000`.
+
+> Nota: i notebook non verranno renderizzati tramite Docsify, quindi quando hai bisogno di eseguire un notebook, fallo separatamente in VS Code utilizzando un kernel Python.
+
+## Aiuto Richiesto!
+
+Se desideri tradurre tutto o parte del curriculum, segui la nostra guida sulle [Traduzioni](TRANSLATIONS.md).
+
+## Altri Curricula
+
+Il nostro team produce altri curricula! Dai un'occhiata a:
+
+- [Generative AI for Beginners](https://aka.ms/genai-beginners)
+- [Generative AI for Beginners .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [Generative AI with JavaScript](https://github.com/microsoft/generative-ai-with-javascript)
+- [Generative AI with Java](https://aka.ms/genaijava)
+- [AI for Beginners](https://aka.ms/ai-beginners)
+- [Data Science for Beginners](https://aka.ms/datascience-beginners)
+- [ML for Beginners](https://aka.ms/ml-beginners)
+- [Cybersecurity for Beginners](https://github.com/microsoft/Security-101)
+- [Web Dev for Beginners](https://aka.ms/webdev-beginners)
+- [IoT for Beginners](https://aka.ms/iot-beginners)
+- [XR Development for Beginners](https://github.com/microsoft/xr-development-for-beginners)
+- [Mastering GitHub Copilot for Paired Programming](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [Mastering GitHub Copilot for C#/.NET Developers](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Choose Your Own Copilot Adventure](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali incomprensioni o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/SECURITY.md b/translations/it/SECURITY.md
new file mode 100644
index 00000000..9a580fa2
--- /dev/null
+++ b/translations/it/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Sicurezza
+
+Microsoft prende molto seriamente la sicurezza dei propri prodotti software e servizi, inclusi tutti i repository di codice sorgente gestiti attraverso le nostre organizzazioni GitHub, che includono [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) e [le nostre organizzazioni GitHub](https://opensource.microsoft.com/).
+
+Se ritieni di aver individuato una vulnerabilità di sicurezza in un repository di proprietà di Microsoft che rientra nella [definizione di vulnerabilità di sicurezza di Microsoft](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)), ti preghiamo di segnalarcelo come descritto di seguito.
+
+## Segnalazione di Problemi di Sicurezza
+
+**Non segnalare vulnerabilità di sicurezza tramite issue pubblici su GitHub.**
+
+Invece, segnalale al Microsoft Security Response Center (MSRC) su [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report).
+
+Se preferisci inviare la segnalazione senza effettuare l'accesso, invia un'email a [secure@microsoft.com](mailto:secure@microsoft.com). Se possibile, cifra il tuo messaggio con la nostra chiave PGP; puoi scaricarla dalla [pagina della chiave PGP del Microsoft Security Response Center](https://www.microsoft.com/en-us/msrc/pgp-key-msrc).
+
+Dovresti ricevere una risposta entro 24 ore. Se per qualche motivo non la ricevi, ti invitiamo a ricontattarci via email per assicurarci di aver ricevuto il tuo messaggio originale. Ulteriori informazioni sono disponibili su [microsoft.com/msrc](https://www.microsoft.com/msrc).
+
+Ti preghiamo di includere le informazioni richieste elencate di seguito (per quanto possibile) per aiutarci a comprendere meglio la natura e la portata del possibile problema:
+
+ * Tipo di problema (ad esempio, buffer overflow, SQL injection, cross-site scripting, ecc.)
+ * Percorsi completi dei file sorgente relativi alla manifestazione del problema
+ * La posizione del codice sorgente interessato (tag/branch/commit o URL diretto)
+ * Qualsiasi configurazione speciale necessaria per riprodurre il problema
+ * Istruzioni dettagliate per riprodurre il problema
+ * Codice proof-of-concept o exploit (se possibile)
+ * Impatto del problema, incluso come un attaccante potrebbe sfruttarlo
+
+Queste informazioni ci aiuteranno a gestire la tua segnalazione più rapidamente.
+
+Se stai segnalando per un programma di bug bounty, rapporti più completi possono contribuire a un premio più alto. Visita la nostra pagina del [Programma Bug Bounty di Microsoft](https://microsoft.com/msrc/bounty) per maggiori dettagli sui nostri programmi attivi.
+
+## Lingue Preferite
+
+Preferiamo che tutte le comunicazioni siano in inglese.
+
+## Politica
+
+Microsoft segue il principio della [Coordinated Vulnerability Disclosure](https://www.microsoft.com/en-us/msrc/cvd).
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/SUPPORT.md b/translations/it/SUPPORT.md
new file mode 100644
index 00000000..2b311448
--- /dev/null
+++ b/translations/it/SUPPORT.md
@@ -0,0 +1,24 @@
+
+# Supporto
+## Come segnalare problemi e ottenere assistenza
+
+Questo progetto utilizza GitHub Issues per tenere traccia di bug e richieste di funzionalità. Cerca tra i problemi esistenti prima di segnalare nuovi problemi per evitare duplicati. Per nuovi problemi, segnala il tuo bug o la tua richiesta di funzionalità come un nuovo Issue.
+
+Per assistenza e domande sull'utilizzo di questo progetto, apri un Issue.
+
+## Politica di supporto Microsoft
+
+Il supporto per questo repository è limitato alle risorse elencate sopra.
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/docs/_sidebar.md b/translations/it/docs/_sidebar.md
new file mode 100644
index 00000000..b725ca2e
--- /dev/null
+++ b/translations/it/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Introduzione
+ - [Definire la Data Science](../1-Introduction/01-defining-data-science/README.md)
+ - [Etica della Data Science](../1-Introduction/02-ethics/README.md)
+ - [Definire i Dati](../1-Introduction/03-defining-data/README.md)
+ - [Probabilità e Statistica](../1-Introduction/04-stats-and-probability/README.md)
+- Lavorare con i Dati
+ - [Database Relazionali](../2-Working-With-Data/05-relational-databases/README.md)
+ - [Database Non Relazionali](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Preparazione dei Dati](../2-Working-With-Data/08-data-preparation/README.md)
+- Visualizzazione dei Dati
+ - [Visualizzare le Quantità](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Visualizzare le Distribuzioni](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Visualizzare le Proporzioni](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [Visualizzare le Relazioni](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Visualizzazioni Significative](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Ciclo di Vita della Data Science
+ - [Introduzione](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analisi](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [Comunicazione](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Data Science nel Cloud
+ - [Introduzione](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Low Code](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Data Science nel Mondo Reale
+ - [DS nel Mondo Reale](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si raccomanda una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/for-teachers.md b/translations/it/for-teachers.md
new file mode 100644
index 00000000..ef8c0c87
--- /dev/null
+++ b/translations/it/for-teachers.md
@@ -0,0 +1,78 @@
+
+## Per Educatori
+
+Vorresti utilizzare questo curriculum nella tua classe? Sentiti libero di farlo!
+
+Infatti, puoi usarlo direttamente su GitHub utilizzando GitHub Classroom.
+
+Per farlo, fai un fork di questo repository. Avrai bisogno di creare un repository per ogni lezione, quindi dovrai estrarre ogni cartella in un repository separato. In questo modo, [GitHub Classroom](https://classroom.github.com/classrooms) potrà gestire ogni lezione separatamente.
+
+Queste [istruzioni complete](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) ti daranno un'idea su come configurare la tua classe.
+
+## Utilizzare il repository così com'è
+
+Se desideri utilizzare questo repository nella sua forma attuale, senza utilizzare GitHub Classroom, è possibile farlo. Dovrai comunicare ai tuoi studenti quale lezione seguire insieme.
+
+In un formato online (Zoom, Teams o altri), potresti creare stanze di gruppo per i quiz e guidare gli studenti per prepararli all'apprendimento. Poi invita gli studenti a completare i quiz e a inviare le loro risposte come 'issues' a un orario stabilito. Potresti fare lo stesso con i compiti, se desideri che gli studenti lavorino collaborativamente in modo aperto.
+
+Se preferisci un formato più privato, chiedi ai tuoi studenti di fare un fork del curriculum, lezione per lezione, nei loro repository GitHub privati e di darti accesso. In questo modo potranno completare quiz e compiti in modo privato e inviarteli tramite issues sul tuo repository della classe.
+
+Ci sono molti modi per far funzionare questo approccio in un formato di classe online. Facci sapere quale funziona meglio per te!
+
+## Incluso in questo curriculum:
+
+20 lezioni, 40 quiz e 20 compiti. Le sketchnotes accompagnano le lezioni per gli studenti visivi. Molte lezioni sono disponibili sia in Python che in R e possono essere completate utilizzando Jupyter notebooks in VS Code. Scopri di più su come configurare la tua classe per utilizzare questa tecnologia: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Tutte le sketchnotes, inclusa una versione in formato poster, si trovano [in questa cartella](../../sketchnotes).
+
+L'intero curriculum è disponibile [in formato PDF](../../pdf/readme.pdf).
+
+Puoi anche eseguire questo curriculum come un sito web autonomo e offline-friendly utilizzando [Docsify](https://docsify.js.org/#/). [Installa Docsify](https://docsify.js.org/#/quickstart) sulla tua macchina locale, poi nella cartella principale della tua copia locale di questo repository, digita `docsify serve`. Il sito web sarà servito sulla porta 3000 del tuo localhost: `localhost:3000`.
+
+Una versione offline-friendly del curriculum si aprirà come una pagina web autonoma: https://localhost:3000
+
+Le lezioni sono suddivise in 6 parti:
+
+- 1: Introduzione
+ - 1: Definire la Data Science
+ - 2: Etica
+ - 3: Definire i Dati
+ - 4: Panoramica su Probabilità e Statistica
+- 2: Lavorare con i Dati
+ - 5: Database Relazionali
+ - 6: Database Non Relazionali
+ - 7: Python
+ - 8: Preparazione dei Dati
+- 3: Visualizzazione dei Dati
+ - 9: Visualizzazione delle Quantità
+ - 10: Visualizzazione delle Distribuzioni
+ - 11: Visualizzazione delle Proporzioni
+ - 12: Visualizzazione delle Relazioni
+ - 13: Visualizzazioni Significative
+- 4: Ciclo di Vita della Data Science
+ - 14: Introduzione
+ - 15: Analisi
+ - 16: Comunicazione
+- 5: Data Science nel Cloud
+ - 17: Introduzione
+ - 18: Opzioni Low-Code
+ - 19: Azure
+- 6: Data Science nel Mondo Reale
+ - 20: Panoramica
+
+## Dacci il tuo feedback!
+
+Vogliamo rendere questo curriculum utile per te e i tuoi studenti. Per favore, condividi il tuo feedback nei forum di discussione! Sentiti libero di creare un'area dedicata alla classe nei forum di discussione per i tuoi studenti.
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche potrebbero contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/quiz-app/README.md b/translations/it/quiz-app/README.md
new file mode 100644
index 00000000..eb513177
--- /dev/null
+++ b/translations/it/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Quiz
+
+Questi quiz sono i quiz pre- e post-lezione per il curriculum di data science disponibile su https://aka.ms/datascience-beginners
+
+## Aggiungere un set di quiz tradotto
+
+Aggiungi una traduzione dei quiz creando strutture di quiz corrispondenti nelle cartelle `assets/translations`. I quiz canonici si trovano in `assets/translations/en`. I quiz sono suddivisi in diversi gruppi. Assicurati di allineare la numerazione con la sezione corretta del quiz. In totale, ci sono 40 quiz in questo curriculum, con il conteggio che inizia da 0.
+
+Dopo aver modificato le traduzioni, modifica il file index.js nella cartella delle traduzioni per importare tutti i file seguendo le convenzioni di `en`.
+
+Modifica il file `index.js` in `assets/translations` per importare i nuovi file tradotti.
+
+Successivamente, modifica il menu a tendina in `App.vue` in questa app per aggiungere la tua lingua. Abbina l'abbreviazione localizzata al nome della cartella per la tua lingua.
+
+Infine, modifica tutti i link ai quiz nelle lezioni tradotte, se esistono, per includere questa localizzazione come parametro di query: `?loc=fr`, ad esempio.
+
+## Configurazione del progetto
+
+```
+npm install
+```
+
+### Compilazione e aggiornamento automatico per lo sviluppo
+
+```
+npm run serve
+```
+
+### Compilazione e minimizzazione per la produzione
+
+```
+npm run build
+```
+
+### Analisi e correzione dei file
+
+```
+npm run lint
+```
+
+### Personalizzare la configurazione
+
+Consulta [Configuration Reference](https://cli.vuejs.org/config/).
+
+Crediti: Grazie alla versione originale di questa app per quiz: https://github.com/arpan45/simple-quiz-vue
+
+## Distribuzione su Azure
+
+Ecco una guida passo-passo per aiutarti a iniziare:
+
+1. Fork del repository GitHub
+Assicurati che il codice della tua app web statica sia nel tuo repository GitHub. Fai un fork di questo repository.
+
+2. Creare un'app web statica su Azure
+- Crea un [account Azure](http://azure.microsoft.com)
+- Vai al [portale di Azure](https://portal.azure.com)
+- Clicca su “Crea una risorsa” e cerca “App Web Statica”.
+- Clicca su “Crea”.
+
+3. Configurare l'app web statica
+- **Informazioni di base**:
+ - **Sottoscrizione**: Seleziona la tua sottoscrizione Azure.
+ - **Gruppo di risorse**: Crea un nuovo gruppo di risorse o utilizza uno esistente.
+ - **Nome**: Fornisci un nome per la tua app web statica.
+ - **Regione**: Scegli la regione più vicina ai tuoi utenti.
+
+- **Dettagli di distribuzione**:
+ - **Origine**: Seleziona “GitHub”.
+ - **Account GitHub**: Autorizza Azure ad accedere al tuo account GitHub.
+ - **Organizzazione**: Seleziona la tua organizzazione GitHub.
+ - **Repository**: Scegli il repository contenente la tua app web statica.
+ - **Branch**: Seleziona il branch da cui vuoi distribuire.
+
+- **Dettagli di build**:
+ - **Preset di build**: Scegli il framework con cui è costruita la tua app (ad esempio, React, Angular, Vue, ecc.).
+ - **Posizione dell'app**: Specifica la cartella contenente il codice della tua app (ad esempio, / se si trova nella radice).
+ - **Posizione API**: Se hai un'API, specifica la sua posizione (opzionale).
+ - **Posizione output**: Specifica la cartella in cui viene generato l'output della build (ad esempio, build o dist).
+
+4. Revisione e creazione
+Rivedi le impostazioni e clicca su “Crea”. Azure configurerà le risorse necessarie e creerà un workflow GitHub Actions nel tuo repository.
+
+5. Workflow GitHub Actions
+Azure creerà automaticamente un file workflow GitHub Actions nel tuo repository (.github/workflows/azure-static-web-apps-.yml). Questo workflow gestirà il processo di build e distribuzione.
+
+6. Monitorare la distribuzione
+Vai alla scheda “Actions” nel tuo repository GitHub.
+Dovresti vedere un workflow in esecuzione. Questo workflow costruirà e distribuirà la tua app web statica su Azure.
+Una volta completato il workflow, la tua app sarà online all'URL fornito da Azure.
+
+### Esempio di file workflow
+
+Ecco un esempio di come potrebbe apparire il file workflow GitHub Actions:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Risorse aggiuntive
+- [Documentazione Azure Static Web Apps](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [Documentazione GitHub Actions](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/it/sketchnotes/README.md b/translations/it/sketchnotes/README.md
new file mode 100644
index 00000000..b9f8f68c
--- /dev/null
+++ b/translations/it/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Trova tutte le sketchnote qui!
+
+## Crediti
+
+Nitya Narasimhan, artista
+
+
+
+---
+
+**Disclaimer**:
+Questo documento è stato tradotto utilizzando il servizio di traduzione automatica [Co-op Translator](https://github.com/Azure/co-op-translator). Sebbene ci impegniamo per garantire l'accuratezza, si prega di notare che le traduzioni automatiche possono contenere errori o imprecisioni. Il documento originale nella sua lingua nativa dovrebbe essere considerato la fonte autorevole. Per informazioni critiche, si consiglia una traduzione professionale eseguita da un traduttore umano. Non siamo responsabili per eventuali fraintendimenti o interpretazioni errate derivanti dall'uso di questa traduzione.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/01-defining-data-science/README.md b/translations/tr/1-Introduction/01-defining-data-science/README.md
new file mode 100644
index 00000000..e5ca5925
--- /dev/null
+++ b/translations/tr/1-Introduction/01-defining-data-science/README.md
@@ -0,0 +1,80 @@
+
+## Veri Türleri
+
+Daha önce de belirttiğimiz gibi, veri her yerde. Sadece doğru şekilde yakalamamız gerekiyor! **Yapılandırılmış** ve **yapılandırılmamış** veri arasında ayrım yapmak faydalı olabilir. Yapılandırılmış veri genellikle bir tablo veya bir dizi tablo gibi iyi yapılandırılmış bir formda temsil edilirken, yapılandırılmamış veri sadece bir dosya koleksiyonudur. Bazen **yarı yapılandırılmış** veriden de bahsedebiliriz; bu tür veriler bir tür yapıya sahip olabilir ancak bu yapı büyük ölçüde değişkenlik gösterebilir.
+
+| Yapılandırılmış | Yarı yapılandırılmış | Yapılandırılmamış |
+| ---------------------------------------------------------------------------- | ---------------------------------------------------------------------------------------------- | --------------------------------------- |
+| İnsanların telefon numaralarıyla birlikte listesi | Bağlantılar içeren Wikipedia sayfaları | Encyclopedia Britannica'nın metni |
+| Son 20 yılda bir binanın tüm odalarındaki her dakika sıcaklık ölçümleri | Yazarlar, yayın tarihi ve özet bilgileri içeren JSON formatında bilimsel makaleler koleksiyonu | Kurumsal belgeler içeren dosya paylaşımı |
+| Binaya giren tüm insanların yaş ve cinsiyet bilgileri | İnternet sayfaları | Güvenlik kamerasından gelen ham video akışı |
+
+## Veri Nereden Alınır?
+
+Veri elde edilebilecek birçok kaynak vardır ve hepsini listelemek imkansızdır! Ancak, bazı tipik veri kaynaklarını belirtelim:
+
+* **Yapılandırılmış**
+ - **Nesnelerin İnterneti** (IoT), sıcaklık veya basınç sensörleri gibi farklı sensörlerden gelen veriler dahil olmak üzere, birçok faydalı veri sağlar. Örneğin, bir ofis binası IoT sensörleriyle donatılmışsa, ısıtma ve aydınlatmayı otomatik olarak kontrol ederek maliyetleri minimize edebiliriz.
+ - **Anketler**, kullanıcıların bir satın alma işleminden sonra veya bir web sitesini ziyaret ettikten sonra doldurmasını istediğimiz anketler.
+ - **Davranış analizi**, örneğin bir kullanıcının bir siteye ne kadar derinlemesine girdiğini ve siteyi terk etme nedenlerini anlamamıza yardımcı olabilir.
+* **Yapılandırılmamış**
+ - **Metinler**, genel bir **duygu skoru** veya anahtar kelimeler ve anlamsal anlam çıkarma gibi zengin bir bilgi kaynağı olabilir.
+ - **Görüntüler** veya **Videolar**. Bir güvenlik kamerasından gelen video, yoldaki trafiği tahmin etmek ve insanları olası trafik sıkışıklıkları hakkında bilgilendirmek için kullanılabilir.
+ - Web sunucusu **Günlükleri**, sitemizin en sık ziyaret edilen sayfalarını ve bu sayfalarda ne kadar süre kalındığını anlamak için kullanılabilir.
+* **Yarı yapılandırılmış**
+ - **Sosyal Ağ** grafikleri, kullanıcı kişilikleri ve bilgiyi yayma potansiyel etkinliği hakkında veri sağlamak için harika kaynaklar olabilir.
+ - Bir partiden bir dizi fotoğrafımız olduğunda, fotoğraf çeken kişiler arasında bir grafik oluşturarak **Grup Dinamikleri** verilerini çıkarmayı deneyebiliriz.
+
+Farklı veri kaynaklarını bilerek, veri bilimi tekniklerinin durumu daha iyi anlamak ve iş süreçlerini iyileştirmek için uygulanabileceği farklı senaryolar hakkında düşünebilirsiniz.
+
+## Veriyle Neler Yapabilirsiniz?
+
+Veri Bilimi'nde, veri yolculuğunun şu adımlarına odaklanıyoruz:
+
+Tabii ki, mevcut veriye bağlı olarak bazı adımlar eksik olabilir (örneğin, veriler zaten bir veritabanında olduğunda veya model eğitimi gerekmediğinde), ya da bazı adımlar birkaç kez tekrarlanabilir (örneğin veri işleme gibi).
+
+## Dijitalleşme ve Dijital Dönüşüm
+
+Son on yılda, birçok işletme iş kararları alırken verinin önemini anlamaya başladı. Veri bilimi prensiplerini bir işletmeyi yönetmek için uygulamak için önce bazı veriler toplamak, yani iş süreçlerini dijital forma dönüştürmek gerekir. Bu, **dijitalleşme** olarak bilinir. Bu veriye veri bilimi tekniklerini uygulayarak kararları yönlendirmek, üretkenlikte önemli artışlara (hatta işin yön değiştirmesine) yol açabilir ve bu da **dijital dönüşüm** olarak adlandırılır.
+
+Bir örnek düşünelim. Diyelim ki bir veri bilimi kursumuz var (tıpkı bu kurs gibi) ve bunu çevrimiçi olarak öğrencilere sunuyoruz. Bu kursu geliştirmek için veri bilimi kullanmak istiyoruz. Bunu nasıl yapabiliriz?
+
+"Ne dijitalleştirilebilir?" sorusuyla başlayabiliriz. En basit yol, her öğrencinin her modülü tamamlaması için geçen süreyi ölçmek ve her modülün sonunda çoktan seçmeli bir test vererek elde edilen bilgiyi ölçmek olabilir. Tüm öğrenciler arasında tamamlanma süresini ortalama alarak, öğrenciler için en zorlayıcı olan modülleri bulabilir ve onları basitleştirmek için çalışabiliriz.
+Bu yaklaşımın ideal olmadığını savunabilirsiniz, çünkü modüller farklı uzunluklarda olabilir. Zamanı modülün uzunluğuna (karakter sayısına göre) bölmek ve bu değerleri karşılaştırmak muhtemelen daha adil olacaktır.
+Çoktan seçmeli testlerin sonuçlarını analiz etmeye başladığımızda, öğrencilerin hangi kavramları anlamakta zorlandığını belirlemeye çalışabilir ve bu bilgiyi içeriği geliştirmek için kullanabiliriz. Bunu yapmak için, testleri her bir sorunun belirli bir kavram veya bilgi parçasıyla eşleştiği şekilde tasarlamamız gerekir.
+
+Daha karmaşık bir analiz yapmak istersek, her modül için harcanan zamanı öğrencilerin yaş kategorilerine göre karşılaştırabiliriz. Bazı yaş kategorileri için modülü tamamlamanın gereğinden fazla uzun sürdüğünü veya öğrencilerin modülü tamamlamadan bıraktığını fark edebiliriz. Bu, modül için yaş önerileri sunmamıza ve yanlış beklentilerden kaynaklanan memnuniyetsizlikleri en aza indirmemize yardımcı olabilir.
+
+## 🚀 Zorluk
+
+Bu zorlukta, metinlere bakarak Veri Bilimi alanıyla ilgili kavramları bulmaya çalışacağız. Veri Bilimi ile ilgili bir Wikipedia makalesi alacak, metni indirip işleyecek ve ardından şu şekilde bir kelime bulutu oluşturacağız:
+
+
+
+Kodu incelemek için [`notebook.ipynb`](../../../../../../../../../1-Introduction/01-defining-data-science/notebook.ipynb ':ignore') dosyasını ziyaret edin. Ayrıca kodu çalıştırabilir ve tüm veri dönüşümlerinin gerçek zamanlı olarak nasıl yapıldığını görebilirsiniz.
+
+> Jupyter Notebook'ta kod çalıştırmayı bilmiyorsanız, [bu makaleye](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) göz atabilirsiniz.
+
+## [Ders sonrası sınav](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/1)
+
+## Görevler
+
+* **Görev 1**: Yukarıdaki kodu değiştirerek **Büyük Veri** ve **Makine Öğrenimi** alanlarıyla ilgili kavramları bulun.
+* **Görev 2**: [Veri Bilimi Senaryoları Üzerine Düşünün](assignment.md)
+
+## Katkıda Bulunanlar
+
+Bu ders, [Dmitry Soshnikov](http://soshnikov.com) tarafından ♥️ ile hazırlanmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/01-defining-data-science/assignment.md b/translations/tr/1-Introduction/01-defining-data-science/assignment.md
new file mode 100644
index 00000000..bd91b6b8
--- /dev/null
+++ b/translations/tr/1-Introduction/01-defining-data-science/assignment.md
@@ -0,0 +1,46 @@
+
+# Ödev: Veri Bilimi Senaryoları
+
+Bu ilk ödevde, sizden farklı problem alanlarında gerçek hayattaki bir süreç veya problemi düşünmenizi ve Veri Bilimi sürecini kullanarak bunu nasıl geliştirebileceğinizi değerlendirmenizi istiyoruz. Şunları düşünün:
+
+1. Hangi verileri toplayabilirsiniz?
+1. Bu verileri nasıl toplarsınız?
+1. Veriyi nasıl saklarsınız? Verinin boyutu ne kadar büyük olabilir?
+1. Bu veriden hangi içgörüler elde edilebilir? Bu verilere dayanarak hangi kararlar alınabilir?
+
+3 farklı problem/süreç düşünmeye çalışın ve her bir problem alanı için yukarıdaki noktaları açıklayın.
+
+İşte düşünmeye başlamanız için bazı problem alanları ve problemler:
+
+1. Veriyi kullanarak okullardaki çocukların eğitim sürecini nasıl geliştirebilirsiniz?
+1. Pandemi sırasında aşılamayı kontrol etmek için veriyi nasıl kullanabilirsiniz?
+1. İşte verimli olduğunuzdan emin olmak için veriyi nasıl kullanabilirsiniz?
+
+## Talimatlar
+
+Aşağıdaki tabloyu doldurun (gerekirse önerilen problem alanlarını kendi alanlarınızla değiştirin):
+
+| Problem Alanı | Problem | Hangi veriler toplanacak | Veriyi nasıl saklayacağız | Hangi içgörüler/kararlar alınabilir |
+|---------------|---------|--------------------------|---------------------------|-------------------------------------|
+| Eğitim | | | | |
+| Aşılama | | | | |
+| Verimlilik | | | | |
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Tüm problem alanları için makul veri kaynakları, veri saklama yöntemleri ve olası kararlar/içgörüler belirlenmiştir | Çözümün bazı yönleri detaylandırılmamış, veri saklama tartışılmamış, en az 2 problem alanı açıklanmıştır | Veri çözümünün yalnızca bazı bölümleri açıklanmış, yalnızca bir problem alanı ele alınmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/01-defining-data-science/solution/assignment.md b/translations/tr/1-Introduction/01-defining-data-science/solution/assignment.md
new file mode 100644
index 00000000..303b4e16
--- /dev/null
+++ b/translations/tr/1-Introduction/01-defining-data-science/solution/assignment.md
@@ -0,0 +1,48 @@
+
+# Ödev: Veri Bilimi Senaryoları
+
+Bu ilk ödevde, farklı problem alanlarında gerçek hayattaki bir süreç veya problemi düşünmenizi ve Veri Bilimi sürecini kullanarak bunu nasıl geliştirebileceğinizi değerlendirmenizi istiyoruz. Şunları düşünün:
+
+1. Hangi verileri toplayabilirsiniz?
+1. Bu verileri nasıl toplarsınız?
+1. Veriyi nasıl saklarsınız? Verinin boyutu ne kadar büyük olabilir?
+1. Bu verilerden hangi içgörüler elde edilebilir? Verilere dayanarak hangi kararlar alınabilir?
+
+3 farklı problem/süreç düşünmeye çalışın ve her bir problem alanı için yukarıdaki noktaları açıklayın.
+
+İşte düşünmeye başlamanız için bazı problem alanları ve problemler:
+
+1. Veriyi nasıl kullanarak okullardaki çocuklar için eğitim sürecini geliştirebilirsiniz?
+1. Veriyi nasıl kullanarak pandemi sırasında aşılamayı kontrol edebilirsiniz?
+1. Veriyi nasıl kullanarak işte verimli olduğunuzdan emin olabilirsiniz?
+
+## Talimatlar
+
+Aşağıdaki tabloyu doldurun (gerekirse önerilen problem alanlarını kendi alanlarınızla değiştirin):
+
+| Problem Alanı | Problem | Hangi veriler toplanacak | Veriyi nasıl saklayacağız | Hangi içgörüler/kararlar alınabilir |
+|----------------|---------|--------------------------|---------------------------|-------------------------------------|
+| Eğitim | Üniversitede genellikle derslere düşük katılım oluyor ve derslere katılan öğrencilerin sınavlarda daha iyi performans gösterdiği hipotezimiz var. Katılımı teşvik etmek ve hipotezi test etmek istiyoruz. | Katılımı sınıftaki güvenlik kamerası tarafından çekilen fotoğraflar veya sınıftaki öğrenci mobil telefonlarının bluetooth/wifi adreslerini takip ederek izleyebiliriz. Sınav verileri zaten üniversite veritabanında mevcut. | Güvenlik kamerası görüntülerini takip edersek - sınıf sırasında birkaç (5-10) fotoğraf saklamamız gerekir (yapılandırılmamış veri) ve ardından öğrencilerin yüzlerini tanımlamak için yapay zeka kullanırız (veriyi yapılandırılmış forma dönüştürürüz). | Her öğrenci için ortalama katılım verilerini hesaplayabilir ve sınav notlarıyla herhangi bir korelasyon olup olmadığını görebiliriz. Korelasyon hakkında daha fazla bilgiyi [olasılık ve istatistik](../../04-stats-and-probability/README.md) bölümünde konuşacağız. Öğrenci katılımını teşvik etmek için haftalık katılım sıralamasını okul portalında yayınlayabilir ve en yüksek katılıma sahip olanlar arasında ödüller dağıtabiliriz. |
+| Aşılama | | | | |
+| Verimlilik | | | | |
+
+> *Sadece bir cevabı örnek olarak sağlıyoruz, böylece bu ödevde ne beklendiğini anlayabilirsiniz.*
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Tüm problem alanları için makul veri kaynakları, veri saklama yöntemleri ve olası kararlar/içgörüler belirlenmiş | Çözümün bazı yönleri detaylandırılmamış, veri saklama tartışılmamış, en az 2 problem alanı açıklanmış | Veri çözümünün sadece bazı bölümleri açıklanmış, sadece bir problem alanı ele alınmış.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/02-ethics/README.md b/translations/tr/1-Introduction/02-ethics/README.md
new file mode 100644
index 00000000..1293bfe8
--- /dev/null
+++ b/translations/tr/1-Introduction/02-ethics/README.md
@@ -0,0 +1,267 @@
+
+# Veri Etiği Giriş
+
+| ](../../sketchnotes/02-Ethics.png)|
+|:---:|
+| Veri Bilimi Etiği - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+---
+
+Hepimiz veriyle dolu bir dünyada yaşayan veri vatandaşlarıyız.
+
+Pazar trendleri, 2022 yılı itibarıyla büyük organizasyonların üçte birinin verilerini çevrimiçi [Pazar Yerleri ve Borsalar](https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/) aracılığıyla alıp satacağını gösteriyor. **Uygulama Geliştiricileri** olarak, veri odaklı içgörüleri ve algoritma tabanlı otomasyonu günlük kullanıcı deneyimlerine entegre etmenin daha kolay ve ucuz hale geldiğini göreceğiz. Ancak yapay zeka yaygınlaştıkça, bu tür algoritmaların [silah haline getirilmesi](https://www.youtube.com/watch?v=TQHs8SA1qpk) sonucu oluşabilecek potansiyel zararları da anlamamız gerekecek.
+
+Trendler ayrıca 2025 yılına kadar [180 zettabayt](https://www.statista.com/statistics/871513/worldwide-data-created/) veri oluşturup tüketeceğimizi gösteriyor. **Veri Bilimcileri** olarak, bu durum bize kişisel verilere benzeri görülmemiş bir erişim sağlıyor. Bu, kullanıcıların davranış profillerini oluşturabileceğimiz ve karar alma süreçlerini, kullanıcıları tercih ettiğimiz sonuçlara yönlendirebilecek şekilde etkileyebileceğimiz anlamına geliyor. Aynı zamanda veri gizliliği ve kullanıcı korumaları gibi daha geniş soruları da gündeme getiriyor.
+
+Veri etiği, veri bilimi ve mühendisliği için artık _gerekli koruma önlemleri_ haline geldi ve veri odaklı eylemlerimizden kaynaklanabilecek potansiyel zararları ve istenmeyen sonuçları en aza indirmemize yardımcı oluyor. [Gartner'ın Yapay Zeka Hype Döngüsü](https://www.gartner.com/smarterwithgartner/2-megatrends-dominate-the-gartner-hype-cycle-for-artificial-intelligence-2020/), dijital etik, sorumlu yapay zeka ve yapay zeka yönetimi gibi ilgili trendleri, yapay zekanın _demokratikleşmesi_ ve _endüstrileşmesi_ etrafındaki daha büyük megatrendlerin anahtar itici güçleri olarak tanımlıyor.
+
+
+
+Bu derste, veri etiği alanını keşfedeceğiz - temel kavramlardan ve zorluklardan, vaka çalışmalarına ve yönetişim gibi uygulamalı yapay zeka kavramlarına kadar - veri ve yapay zeka ile çalışan ekiplerde ve organizasyonlarda bir etik kültürü oluşturulmasına yardımcı olan konuları ele alacağız.
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/2) 🎯
+
+## Temel Tanımlar
+
+Öncelikle temel terminolojiyi anlamakla başlayalım.
+
+"Etik" kelimesi, _karakter veya ahlaki doğa_ anlamına gelen [Yunanca "ethikos"](https://en.wikipedia.org/wiki/Ethics) (ve kökü "ethos") kelimesinden gelir.
+
+**Etik**, toplumdaki davranışlarımızı yöneten ortak değerler ve ahlaki ilkelerdir. Etik, yasalara değil, "doğru ve yanlış" olarak kabul edilen normlara dayanır. Ancak etik değerlendirmeler, uyum için daha fazla teşvik yaratan kurumsal yönetim girişimlerini ve hükümet düzenlemelerini etkileyebilir.
+
+**Veri Etiği**, "_veriler, algoritmalar ve ilgili uygulamalarla_ ilgili ahlaki sorunları inceleyen ve değerlendiren" [etik alanında yeni bir dal](https://royalsocietypublishing.org/doi/full/10.1098/rsta.2016.0360#sec-1) olarak tanımlanır. Burada, **"veri"** oluşturma, kaydetme, düzenleme, işleme, yayma, paylaşma ve kullanım ile ilgili eylemlere odaklanır; **"algoritmalar"** yapay zeka, ajanlar, makine öğrenimi ve robotlara odaklanır; ve **"uygulamalar"** sorumlu yenilik, programlama, hackleme ve etik kodlar gibi konulara odaklanır.
+
+**Uygulamalı Etik**, [_ahlaki değerlendirmelerin pratik uygulamasıdır_](https://en.wikipedia.org/wiki/Applied_ethics). Bu, _gerçek dünya eylemleri, ürünleri ve süreçleri_ bağlamında etik sorunları aktif olarak araştırma ve bunların tanımlanmış etik değerlerimizle uyumlu kalmasını sağlamak için düzeltici önlemler alma sürecidir.
+
+**Etik Kültürü**, [_uygulamalı etiği_](https://hbr.org/2019/05/how-to-design-an-ethical-organization) operasyonel hale getirmekle ilgilidir; böylece etik ilkelerimizin ve uygulamalarımızın, bir organizasyonun her seviyesinde tutarlı ve ölçeklenebilir bir şekilde benimsenmesini sağlarız. Başarılı etik kültürleri, organizasyon genelinde etik ilkeler tanımlar, uyum için anlamlı teşvikler sağlar ve istenen davranışları teşvik ederek ve güçlendirerek etik normları her seviyede pekiştirir.
+
+## Etik Kavramları
+
+Bu bölümde, veri etiği için **ortak değerler** (ilkeler) ve **etik zorluklar** (sorunlar) gibi kavramları tartışacağız - ve bu kavramları gerçek dünya bağlamlarında anlamanıza yardımcı olacak **vaka çalışmaları** inceleyeceğiz.
+
+### 1. Etik İlkeler
+
+Her veri etiği stratejisi, veri ve yapay zeka projelerimizde kabul edilebilir davranışları tanımlayan ve uyumlu eylemleri yönlendiren "ortak değerler" olan _etik ilkeleri_ tanımlamakla başlar. Bunları bireysel veya ekip düzeyinde tanımlayabilirsiniz. Ancak, çoğu büyük organizasyon, bunları kurumsal düzeyde tanımlanan ve tüm ekiplerde tutarlı bir şekilde uygulanan bir _etik yapay zeka_ misyon bildirimi veya çerçevesinde belirtir.
+
+**Örnek:** Microsoft'un [Sorumlu Yapay Zeka](https://www.microsoft.com/en-us/ai/responsible-ai) misyon bildirimi şöyle der: _"İnsanları önceliklendiren etik ilkelerle yönlendirilen yapay zekanın ilerlemesine bağlıyız"_ - aşağıdaki çerçevede 6 etik ilkeyi tanımlıyor:
+
+
+
+Bu ilkeleri kısaca inceleyelim. _Şeffaflık_ ve _hesap verebilirlik_, diğer ilkelerin üzerine inşa edildiği temel değerlerdir - bu yüzden buradan başlayalım:
+
+* [**Hesap Verebilirlik**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6), uygulayıcıları veri ve yapay zeka operasyonlarından ve bu etik ilkelere uyumdan _sorumlu_ kılar.
+* [**Şeffaflık**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6), veri ve yapay zeka eylemlerinin kullanıcılar için _anlaşılır_ (yorumlanabilir) olmasını sağlar, kararların ne ve nedenini açıklar.
+* [**Adalet**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6), yapay zekanın _tüm insanlara_ adil davranmasını sağlar, veri ve sistemlerdeki sistemik veya örtük sosyo-teknik önyargıları ele alır.
+* [**Güvenilirlik ve Güvenlik**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6), yapay zekanın tanımlanmış değerlere _tutarlı_ bir şekilde davranmasını sağlar, potansiyel zararları veya istenmeyen sonuçları en aza indirir.
+* [**Gizlilik ve Güvenlik**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6), veri kökenini anlamak ve kullanıcılara _veri gizliliği ve ilgili korumalar_ sağlamakla ilgilidir.
+* [**Kapsayıcılık**](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6), yapay zeka çözümlerini niyetle tasarlamak ve onları _geniş bir insan ihtiyaçları ve yetenekleri yelpazesine_ uyarlamakla ilgilidir.
+
+> 🚨 Veri etiği misyon bildiriminizin ne olabileceğini düşünün. Diğer organizasyonların etik yapay zeka çerçevelerini keşfedin - işte [IBM](https://www.ibm.com/cloud/learn/ai-ethics), [Google](https://ai.google/principles) ve [Facebook](https://ai.facebook.com/blog/facebooks-five-pillars-of-responsible-ai/) örnekleri. Ortak değerleri nelerdir? Bu ilkeler, faaliyet gösterdikleri yapay zeka ürünü veya endüstri ile nasıl ilişkilidir?
+
+### 2. Etik Zorluklar
+
+Etik ilkeler tanımlandıktan sonra, bir sonraki adım, veri ve yapay zeka eylemlerimizin bu ortak değerlerle uyumlu olup olmadığını değerlendirmektir. Eylemlerinizi iki kategoriye ayırarak düşünün: _veri toplama_ ve _algoritma tasarımı_.
+
+Veri toplama ile ilgili eylemler, muhtemelen **kişisel veri** veya yaşayan bireyler için kişisel olarak tanımlanabilir bilgiler (PII) içerecektir. Bu, bir bireyi _toplu olarak_ tanımlayan [çeşitli kişisel olmayan veri öğelerini](https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-personal-data_en) içerir. Etik zorluklar, _veri gizliliği_, _veri sahipliği_ ve kullanıcılar için _bilgilendirilmiş onay_ ve _fikri mülkiyet hakları_ gibi ilgili konularla ilgili olabilir.
+
+Algoritma tasarımı ile ilgili eylemler, **veri setleri** toplama ve düzenleme, ardından bunları gerçek dünya bağlamlarında sonuçları tahmin eden veya kararları otomatikleştiren **veri modelleri** eğitmek ve dağıtmakla ilgili olacaktır. Etik zorluklar, _veri seti önyargısı_, _veri kalitesi_ sorunları, _adaletsizlik_ ve algoritmalardaki _yanlış temsil_ gibi konulardan kaynaklanabilir - bazıları sistemik nitelikte olabilir.
+
+Her iki durumda da, etik zorluklar, eylemlerimizin ortak değerlerimizle çatışabileceği alanları vurgular. Bu endişeleri tespit etmek, hafifletmek, en aza indirmek veya ortadan kaldırmak için, eylemlerimizle ilgili ahlaki "evet/hayır" soruları sormamız ve gerektiğinde düzeltici eylemler almamız gerekir. Şimdi bazı etik zorluklara ve bunların ortaya çıkardığı ahlaki sorulara bakalım:
+
+#### 2.1 Veri Sahipliği
+
+Veri toplama genellikle veri konularını tanımlayabilecek kişisel verileri içerir. [Veri sahipliği](https://permission.io/blog/data-ownership), verilerin oluşturulması, işlenmesi ve yayılması ile ilgili _kontrol_ ve [_kullanıcı hakları_](https://permission.io/blog/data-ownership) ile ilgilidir.
+
+Sormamız gereken ahlaki sorular şunlardır:
+ * Verinin sahibi kimdir? (kullanıcı mı organizasyon mu)
+ * Veri konularının hangi hakları vardır? (örneğin: erişim, silme, taşınabilirlik)
+ * Organizasyonların hangi hakları vardır? (örneğin: kötü niyetli kullanıcı yorumlarını düzeltme)
+
+#### 2.2 Bilgilendirilmiş Onay
+
+[Bilgilendirilmiş onay](https://legaldictionary.net/informed-consent/), kullanıcıların (veri konuları) bir eylemi (örneğin veri toplama) _ilgili gerçeklerin tam olarak anlaşılmasıyla_ kabul etmesini tanımlar; buna amaç, potansiyel riskler ve alternatifler dahildir.
+
+Burada keşfedilecek sorular şunlardır:
+ * Kullanıcı (veri konusu) veri yakalama ve kullanımı için izin verdi mi?
+ * Kullanıcı, verinin yakalandığı amacı anladı mı?
+ * Kullanıcı, katılımından kaynaklanabilecek potansiyel riskleri anladı mı?
+
+#### 2.3 Fikri Mülkiyet
+
+[Fikri mülkiyet](https://en.wikipedia.org/wiki/Intellectual_property), bireyler veya işletmeler için _ekonomik değeri_ olabilecek insan girişiminden kaynaklanan soyut yaratımları ifade eder.
+
+Burada keşfedilecek sorular şunlardır:
+ * Toplanan veriler bir kullanıcı veya işletme için ekonomik değere sahip miydi?
+ * Burada **kullanıcının** fikri mülkiyeti var mı?
+ * Burada **organizasyonun** fikri mülkiyeti var mı?
+ * Bu haklar varsa, onları nasıl koruyoruz?
+
+#### 2.4 Veri Gizliliği
+
+[Veri gizliliği](https://www.northeastern.edu/graduate/blog/what-is-data-privacy/) veya bilgi gizliliği, kullanıcı gizliliğinin korunması ve kişisel olarak tanımlanabilir bilgilerin kullanıcı kimliğinin korunması ile ilgilidir.
+
+Burada keşfedilecek sorular şunlardır:
+ * Kullanıcıların (kişisel) verileri hacklere ve sızıntılara karşı güvenli mi?
+ * Kullanıcıların verileri yalnızca yetkili kullanıcılar ve bağlamlar tarafından erişilebilir mi?
+ * Kullanıcıların anonimliği, veri paylaşıldığında veya yayıldığında korunuyor mu?
+ * Bir kullanıcı anonimleştirilmiş veri setlerinden kimliksizleştirilebilir mi?
+
+#### 2.5 Unutulma Hakkı
+
+[Unutulma Hakkı](https://en.wikipedia.org/wiki/Right_to_be_forgotten) veya [Silme Hakkı](https://www.gdpreu.org/right-to-be-forgotten/), kullanıcılara ek kişisel veri koruması sağlar. Özellikle, kullanıcılara İnternet aramalarından ve diğer konumlardan kişisel verilerin silinmesini veya kaldırılmasını talep etme hakkı verir, _belirli koşullar altında_ - geçmiş eylemlerin kendilerine karşı kullanılmamasını sağlayarak çevrimiçi olarak yeni bir başlangıç yapmalarına olanak tanır.
+
+Burada keşfedilecek sorular şunlardır:
+ * Sistem, veri konularının silme talebinde bulunmasına izin veriyor mu?
+ * Kullanıcı onayının geri çekilmesi otomatik silmeyi tetiklemeli mi?
+ * Veri, kullanıcı onayı olmadan veya yasa dışı yollarla mı toplandı?
+ * Veri gizliliği için hükümet düzenlemelerine uyuyor muyuz?
+
+#### 2.6 Veri Seti Önyargısı
+
+Veri seti veya [Toplama Önyargısı](http://researcharticles.com/index.php/bias-in-data-collection-in-research/), algoritma geliştirme için _temsil edici olmayan_ bir veri alt kümesi seçmekle ilgilidir ve bu durum çeşitli gruplar için sonuçlarda potansiyel adaletsizlik yaratır. Önyargı türleri arasında seçim veya örnekleme önyargısı, gönüllü önyargı ve araç önyargısı bulunur.
+
+Burada keşfedilecek sorular şunlardır:
+ * Temsil edici bir veri konusu seti mi topladık?
+ * Toplanan veya düzenlenen veri setimizi çeşitli önyargılar açısından test ettik mi?
+ * Bulunan önyargıları hafifletebilir veya ortadan kaldırabilir miyiz?
+
+#### 2.7 Veri Kalitesi
+
+[Veri Kalitesi](https://lakefs.io/data-quality-testing/), algoritmalarımızı geliştirmek için kullanılan düzenlenmiş veri setinin geçerliliğini inceler ve özelliklerin ve kayıtların yapay zeka amacımız için gereken doğruluk ve tutarlılık düzeyini karşılayıp karşılamadığını kontrol eder.
+
+Burada keşfedilecek sorular şunlardır:
+ * Kullanım durumumuz için geçerli _özellikler_ yakaladık mı?
+ * Çeşitli veri kaynakları arasında veri _tutarlı_ bir şekilde mi yakalandı?
+ * Veri seti, çeşitli koşullar veya senaryolar için _tam_ mı?
+ * Bilgiler, gerçekliği yansıtacak şekilde _doğru_ bir şekilde mi yakalandı?
+
+#### 2.8 Algoritma Adaleti
+[Algorithm Adaleti](https://towardsdatascience.com/what-is-algorithm-fairness-3182e161cf9f), algoritma tasarımının belirli veri gruplarına sistematik olarak ayrımcılık yapıp yapmadığını ve bunun sonucunda _kaynak tahsisi_ (kaynakların o gruptan esirgenmesi veya reddedilmesi) ve _hizmet kalitesi_ (AI'nin bazı alt gruplar için diğerlerine göre daha az doğru olması) gibi [potansiyel zararlar](https://docs.microsoft.com/en-us/azure/machine-learning/concept-fairness-ml) oluşturup oluşturmadığını kontrol eder.
+
+Burada incelenmesi gereken sorular:
+ * Model doğruluğunu farklı alt gruplar ve koşullar için değerlendirdik mi?
+ * Sistemi potansiyel zararlar (örneğin, stereotipleme) açısından inceledik mi?
+ * Belirlenen zararları azaltmak için verileri revize edebilir veya modelleri yeniden eğitebilir miyiz?
+
+Daha fazla bilgi edinmek için [AI Adalet kontrol listeleri](https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE4t6dA) gibi kaynakları keşfedin.
+
+#### 2.9 Yanıltıcı Temsil
+
+[Veri Yanıltıcı Temsili](https://www.sciencedirect.com/topics/computer-science/misrepresentation), dürüstçe raporlanan verilerden elde edilen içgörüleri, istenen bir anlatıyı desteklemek için aldatıcı bir şekilde iletişim kurup kurmadığımızı sorgular.
+
+Burada incelenmesi gereken sorular:
+ * Eksik veya yanlış veri mi raporluyoruz?
+ * Verileri yanıltıcı sonuçlar çıkaracak şekilde mi görselleştiriyoruz?
+ * Sonuçları manipüle etmek için seçici istatistiksel teknikler mi kullanıyoruz?
+ * Farklı bir sonuca yol açabilecek alternatif açıklamalar var mı?
+
+#### 2.10 Özgür Seçim
+
+[Özgür Seçim Yanılsaması](https://www.datasciencecentral.com/profiles/blogs/the-illusion-of-choice), sistem "seçim mimarilerinin" karar verme algoritmalarını kullanarak insanları tercih edilen bir sonuca yönlendirdiği, ancak onlara seçenekler ve kontrol sunduğu izlenimini verdiği durumlarda ortaya çıkar. Bu [karanlık desenler](https://www.darkpatterns.org/) kullanıcılar için sosyal ve ekonomik zararlar yaratabilir. Kullanıcı kararları davranış profillerini etkilediğinden, bu eylemler potansiyel olarak bu zararların etkisini artırabilir veya uzatabilir.
+
+Burada incelenmesi gereken sorular:
+ * Kullanıcı, o seçimi yapmanın sonuçlarını anladı mı?
+ * Kullanıcı, (alternatif) seçeneklerin ve her birinin artıları ve eksilerinin farkında mıydı?
+ * Kullanıcı, otomatik veya etkilenmiş bir seçimi daha sonra geri alabilir mi?
+
+### 3. Vaka Çalışmaları
+
+Bu etik zorlukları gerçek dünya bağlamlarında ele almak için, bu tür etik ihlallerin göz ardı edildiğinde bireyler ve toplum üzerindeki potansiyel zararları ve sonuçları vurgulayan vaka çalışmalarına bakmak faydalı olur.
+
+İşte birkaç örnek:
+
+| Etik Zorluk | Vaka Çalışması |
+|--- |--- |
+| **Bilgilendirilmiş Onay** | 1972 - [Tuskegee Frengi Çalışması](https://en.wikipedia.org/wiki/Tuskegee_Syphilis_Study) - Çalışmaya katılan Afrikalı Amerikalı erkeklere ücretsiz tıbbi bakım vaat edildi, ancak araştırmacılar teşhislerini veya tedavi seçeneklerini açıklamayarak onları _aldattı_. Birçok katılımcı öldü ve eşleri veya çocukları etkilendi; çalışma 40 yıl sürdü. |
+| **Veri Gizliliği** | 2007 - [Netflix veri ödülü](https://www.wired.com/2007/12/why-anonymous-data-sometimes-isnt/) araştırmacılara _50K müşteriden 10M anonimleştirilmiş film puanlaması_ sağladı, böylece öneri algoritmalarını geliştirebilirlerdi. Ancak, araştırmacılar anonimleştirilmiş verileri _harici veri setlerindeki_ (örneğin, IMDb yorumları) kişisel olarak tanımlanabilir verilerle ilişkilendirebildi - bazı Netflix abonelerini "de-anonimleştirdi".|
+| **Toplama Önyargısı** | 2013 - Boston Şehri [Street Bump uygulamasını geliştirdi](https://www.boston.gov/transportation/street-bump), vatandaşların çukurları bildirmesine olanak tanıyarak şehre yol sorunlarını bulmak ve düzeltmek için daha iyi veriler sağladı. Ancak, [düşük gelir gruplarındaki insanların araba ve telefonlara erişimi daha azdı](https://hbr.org/2013/04/the-hidden-biases-in-big-data), bu da onların yol sorunlarını bu uygulamada görünmez hale getirdi. Geliştiriciler, adalet için _eşit erişim ve dijital bölünmeler_ sorunları üzerinde akademisyenlerle çalıştı. |
+| **Algoritmik Adalet** | 2018 - MIT [Gender Shades Çalışması](http://gendershades.org/overview.html), cinsiyet sınıflandırma AI ürünlerinin doğruluğunu değerlendirdi ve kadınlar ve renkli insanlar için doğrulukta boşluklar olduğunu ortaya çıkardı. Bir [2019 Apple Card](https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/) kadınlara erkeklere göre daha az kredi sunmuş gibi göründü. Her ikisi de algoritmik önyargıların sosyo-ekonomik zararlara yol açtığını gösterdi.|
+| **Veri Yanıltıcı Temsili** | 2020 - [Georgia Halk Sağlığı Departmanı COVID-19 grafiklerini yayınladı](https://www.vox.com/covid-19-coronavirus-us-response-trump/2020/5/18/21262265/georgia-covid-19-cases-declining-reopening) ve x ekseninde kronolojik olmayan sıralama ile vatandaşları doğrulanmış vakalardaki eğilimler hakkında yanıltmış gibi göründü. Bu, görselleştirme hileleriyle yanıltıcı temsili örnekler. |
+| **Özgür Seçim Yanılsaması** | 2020 - Öğrenme uygulaması [ABCmouse, FTC şikayetini çözmek için 10M $ ödedi](https://www.washingtonpost.com/business/2020/09/04/abcmouse-10-million-ftc-settlement/) ve ebeveynler iptal edemedikleri abonelikler için ödeme yapmaya zorlandı. Bu, kullanıcıların potansiyel olarak zararlı seçimlere yönlendirildiği seçim mimarilerindeki karanlık desenleri gösteriyor. |
+| **Veri Gizliliği ve Kullanıcı Hakları** | 2021 - Facebook [Veri İhlali](https://www.npr.org/2021/04/09/986005820/after-data-breach-exposes-530-million-facebook-says-it-will-not-notify-users) 530M kullanıcının verilerini ifşa etti ve FTC'ye 5B $ ödeme yaptı. Ancak, kullanıcıları ihlal hakkında bilgilendirmeyi reddetti ve veri şeffaflığı ve erişimi ile ilgili kullanıcı haklarını ihlal etti. |
+
+Daha fazla vaka çalışması keşfetmek ister misiniz? Bu kaynaklara göz atın:
+* [Ethics Unwrapped](https://ethicsunwrapped.utexas.edu/case-studies) - çeşitli endüstrilerde etik ikilemler.
+* [Data Science Ethics course](https://www.coursera.org/learn/data-science-ethics#syllabus) - önemli vaka çalışmaları inceleniyor.
+* [Where things have gone wrong](https://deon.drivendata.org/examples/) - deon kontrol listesi ve örnekler.
+
+> 🚨 Gördüğünüz vaka çalışmalarını düşünün - hayatınızda benzer bir etik zorlukla karşılaştınız mı veya etkilendiniz mi? Bu bölümde tartıştığımız etik zorluklardan birini gösteren en az bir başka vaka çalışması düşünebilir misiniz?
+
+## Uygulamalı Etik
+
+Etik kavramları, zorlukları ve gerçek dünya bağlamlarında vaka çalışmalarını konuştuk. Peki, projelerimizde etik ilkeleri ve uygulamaları nasıl _uygularız_? Ve bu uygulamaları daha iyi yönetişim için nasıl _operasyonelleştiririz_? Gerçek dünya çözümlerini keşfedelim:
+
+### 1. Mesleki Kodlar
+
+Mesleki Kodlar, kuruluşların üyelerini etik ilkelerini ve misyon bildirimlerini desteklemeye "teşvik etmek" için bir seçenek sunar. Kodlar, profesyonel davranış için _ahlaki yönergeler_ olup, çalışanların veya üyelerin kuruluşlarının ilkelerine uygun kararlar almasına yardımcı olur. Üyelerin gönüllü uyumu kadar etkili olsalar da, birçok kuruluş üyelerin uyumunu motive etmek için ek ödüller ve cezalar sunar.
+
+Örnekler:
+ * [Oxford Munich](http://www.code-of-ethics.org/code-of-conduct/) Etik Kodu
+ * [Data Science Association](http://datascienceassn.org/code-of-conduct.html) Davranış Kuralları (2013'te oluşturuldu)
+ * [ACM Code of Ethics and Professional Conduct](https://www.acm.org/code-of-ethics) (1993'ten beri)
+
+> 🚨 Bir profesyonel mühendislik veya veri bilimi organizasyonuna üye misiniz? Sitelerini inceleyerek bir mesleki etik kodu tanımlayıp tanımlamadıklarını görün. Bu, etik ilkeleri hakkında ne söylüyor? Üyeleri kodu takip etmeye nasıl "teşvik ediyorlar"?
+
+### 2. Etik Kontrol Listeleri
+
+Mesleki kodlar, uygulayıcılardan beklenen _etik davranışı_ tanımlarken, [bilinen sınırlamaları](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) vardır, özellikle büyük ölçekli projelerde. Bunun yerine, birçok veri bilimi uzmanı [kontrol listelerini](https://resources.oreilly.com/examples/0636920203964/blob/master/of_oaths_and_checklists.md) savunur, bu da **ilkeleri uygulamalara bağlayabilir** ve daha belirleyici ve uygulanabilir yollar sunabilir.
+
+Kontrol listeleri, soruları "evet/hayır" görevlerine dönüştürerek operasyonelleştirilebilir ve standart ürün sürüm iş akışlarının bir parçası olarak izlenebilir hale getirir.
+
+Örnekler:
+ * [Deon](https://deon.drivendata.org/) - [endüstri önerilerinden](https://deon.drivendata.org/#checklist-citations) oluşturulmuş genel amaçlı bir veri etik kontrol listesi ve kolay entegrasyon için bir komut satırı aracı.
+ * [Gizlilik Denetim Kontrol Listesi](https://cyber.harvard.edu/ecommerce/privacyaudit.html) - yasal ve sosyal maruz kalma perspektiflerinden bilgi işleme uygulamaları için genel rehberlik sağlar.
+ * [AI Adalet Kontrol Listesi](https://www.microsoft.com/en-us/research/project/ai-fairness-checklist/) - AI geliştirme döngülerine adalet kontrollerinin benimsenmesini ve entegrasyonunu desteklemek için AI uygulayıcıları tarafından oluşturuldu.
+ * [Veri ve AI'da etik için 22 soru](https://medium.com/the-organization/22-questions-for-ethics-in-data-and-ai-efb68fd19429) - tasarım, uygulama ve organizasyonel bağlamlarda etik sorunların ilk keşfi için daha açık uçlu bir çerçeve.
+
+### 3. Etik Düzenlemeler
+
+Etik, paylaşılan değerleri tanımlamak ve doğru olanı _gönüllü olarak_ yapmakla ilgilidir. **Uyum**, tanımlandığı takdirde _yasaya uymak_ ile ilgilidir. **Yönetişim**, kuruluşların etik ilkeleri uygulamak ve tanımlanmış yasalara uymak için çalıştığı tüm yolları kapsar.
+
+Bugün yönetişim, kuruluşlar içinde iki şekilde gerçekleşir. İlk olarak, **etik AI** ilkelerini tanımlamak ve kuruluşun tüm AI ile ilgili projelerinde benimsenmeyi operasyonelleştirmekle ilgilidir. İkincisi, faaliyet gösterdiği bölgeler için tüm hükümet tarafından belirlenmiş **veri koruma düzenlemelerine** uymakla ilgilidir.
+
+Veri koruma ve gizlilik düzenlemeleri örnekleri:
+
+ * `1974`, [ABD Gizlilik Yasası](https://www.justice.gov/opcl/privacy-act-1974) - _federal hükümetin_ kişisel bilgilerin toplanması, kullanılması ve açıklanmasını düzenler.
+ * `1996`, [ABD Sağlık Sigortası Taşınabilirlik ve Hesap Verebilirlik Yasası (HIPAA)](https://www.cdc.gov/phlp/publications/topic/hipaa.html) - kişisel sağlık verilerini korur.
+ * `1998`, [ABD Çocukların Çevrimiçi Gizliliğini Koruma Yasası (COPPA)](https://www.ftc.gov/enforcement/rules/rulemaking-regulatory-reform-proceedings/childrens-online-privacy-protection-rule) - 13 yaş altındaki çocukların veri gizliliğini korur.
+ * `2018`, [Genel Veri Koruma Yönetmeliği (GDPR)](https://gdpr-info.eu/) - kullanıcı hakları, veri koruma ve gizlilik sağlar.
+ * `2018`, [California Tüketici Gizliliği Yasası (CCPA)](https://www.oag.ca.gov/privacy/ccpa) tüketicilere (kişisel) verileri üzerinde daha fazla _hak_ verir.
+ * `2021`, Çin'in [Kişisel Bilgi Koruma Yasası](https://www.reuters.com/world/china/china-passes-new-personal-data-privacy-law-take-effect-nov-1-2021-08-20/) yeni geçti ve dünya çapında en güçlü çevrimiçi veri gizliliği düzenlemelerinden birini oluşturdu.
+
+> 🚨 Avrupa Birliği tarafından tanımlanan GDPR (Genel Veri Koruma Yönetmeliği), bugün en etkili veri gizliliği düzenlemelerinden biri olmaya devam ediyor. Ayrıca vatandaşların dijital gizliliğini ve kişisel verilerini korumak için [8 kullanıcı hakkı](https://www.freeprivacypolicy.com/blog/8-user-rights-gdpr) tanımladığını biliyor muydunuz? Bunların ne olduğunu ve neden önemli olduklarını öğrenin.
+
+### 4. Etik Kültürü
+
+Uyum (yasaların "harfini" yerine getirmek için yeterince yapmak) ile [sistemik sorunları](https://www.coursera.org/learn/data-science-ethics/home/week/4) ele almak (örneğin, katılaşma, bilgi asimetrisi ve dağıtımsal adaletsizlik) arasında hala elle tutulamayan bir boşluk olduğunu unutmayın.
+
+İkincisi, [etik kültürlerini tanımlamak için işbirlikçi yaklaşımlar](https://towardsdatascience.com/why-ai-ethics-requires-a-culture-driven-approach-26f451afa29f) gerektirir ve bu, endüstrideki kuruluşlar arasında duygusal bağlar ve tutarlı paylaşılan değerler oluşturur. Bu, kuruluşlarda daha [resmileştirilmiş veri etik kültürleri](https://www.codeforamerica.org/news/formalizing-an-ethical-data-culture/) oluşturmayı gerektirir - _herkesin_ (etik endişeleri sürecin başında dile getirmek için) [Andon ipini çekmesine](https://en.wikipedia.org/wiki/Andon_(manufacturing)) olanak tanır ve _etik değerlendirmeleri_ (örneğin, işe alımda) AI projelerinde ekip oluşturmanın temel kriteri haline getirir.
+
+---
+## [Ders sonrası test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/3) 🎯
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Kurslar ve kitaplar temel etik kavramları ve zorlukları anlamaya yardımcı olurken, vaka çalışmaları ve araçlar gerçek dünya bağlamlarında uygulamalı etik uygulamalarına yardımcı olur. İşte başlamak için birkaç kaynak.
+
+* [Başlangıç Seviyesi Makine Öğrenimi](https://github.com/microsoft/ML-For-Beginners/blob/main/1-Introduction/3-fairness/README.md) - Microsoft'tan Adalet üzerine bir ders.
+* [Sorumlu Yapay Zeka İlkeleri](https://docs.microsoft.com/en-us/learn/modules/responsible-ai-principles/) - Microsoft Learn'den ücretsiz öğrenim yolu.
+* [Etik ve Veri Bilimi](https://resources.oreilly.com/examples/0636920203964) - O'Reilly EKitap (M. Loukides, H. Mason ve diğerleri)
+* [Veri Bilimi Etiği](https://www.coursera.org/learn/data-science-ethics#syllabus) - Michigan Üniversitesi'nden çevrimiçi kurs.
+* [Etik Açıklanıyor](https://ethicsunwrapped.utexas.edu/case-studies) - Texas Üniversitesi'nden vaka çalışmaları.
+
+# Ödev
+
+[Bir Veri Etiği Vaka Çalışması Yazın](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/02-ethics/assignment.md b/translations/tr/1-Introduction/02-ethics/assignment.md
new file mode 100644
index 00000000..7391582d
--- /dev/null
+++ b/translations/tr/1-Introduction/02-ethics/assignment.md
@@ -0,0 +1,35 @@
+
+## Veri Etiği Vaka Çalışması Yazın
+
+## Talimatlar
+
+[Veri Etiği Zorlukları](README.md#2-ethics-challenges) hakkında çeşitli şeyler öğrendiniz ve gerçek dünya bağlamlarında veri etiği zorluklarını yansıtan bazı [Vaka Çalışmaları](README.md#3-case-studies) örneklerini gördünüz.
+
+Bu ödevde, kendi deneyiminizden veya aşina olduğunuz ilgili bir gerçek dünya bağlamından bir veri etiği zorluğunu yansıtan kendi vaka çalışmanızı yazacaksınız. Sadece şu adımları izleyin:
+
+1. `Bir Veri Etiği Zorluğu Seçin`. [Ders örneklerine](README.md#2-ethics-challenges) bakın veya ilham almak için [Deon Checklist](https://deon.drivendata.org/examples/) gibi çevrimiçi örnekleri inceleyin.
+
+2. `Gerçek Dünya Örneğini Tanımlayın`. Bu belirli zorluğun meydana geldiği bir durumu düşünün (manşetler, araştırma çalışması vb.) veya yaşadığınız bir durumu (yerel topluluk). Bu zorlukla ilgili veri etiği sorularını düşünün - ve bu sorunun neden olduğu potansiyel zararları veya istenmeyen sonuçları tartışın. Bonus puan: Bu zorluğun olumsuz etkisini ortadan kaldırmaya veya hafifletmeye yardımcı olabilecek potansiyel çözümler veya süreçler hakkında düşünün.
+
+3. `İlgili Kaynaklar Listesi Sağlayın`. Bunun gerçek bir dünya olayı olduğunu kanıtlamak için bir veya daha fazla kaynak paylaşın (bir makaleye bağlantı, kişisel blog yazısı veya görüntü, çevrimiçi araştırma makalesi vb.). Bonus puan: Olaydan kaynaklanan potansiyel zararları ve sonuçları gösteren veya tekrarını önlemek için alınan olumlu adımları vurgulayan kaynaklar paylaşın.
+
+
+
+## Değerlendirme Ölçütü
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Bir veya daha fazla veri etiği zorluğu tanımlanmıştır.
Vaka çalışması, bu zorluğu yansıtan gerçek bir dünya olayını açıkça tanımlar ve neden olduğu istenmeyen sonuçları veya zararları vurgular.
Bunun gerçekleştiğini kanıtlamak için en az bir bağlantılı kaynak vardır. | Bir veri etiği zorluğu tanımlanmıştır.
En az bir ilgili zarar veya sonuç kısaca tartışılmıştır.
Ancak tartışma sınırlıdır veya gerçek dünya olayını kanıtlama açısından eksiktir. | Bir veri zorluğu tanımlanmıştır.
Ancak açıklama veya kaynaklar zorluğu yeterince yansıtmıyor veya bunun gerçek dünya olayını kanıtlamıyor. |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/03-defining-data/README.md b/translations/tr/1-Introduction/03-defining-data/README.md
new file mode 100644
index 00000000..bc5cffb9
--- /dev/null
+++ b/translations/tr/1-Introduction/03-defining-data/README.md
@@ -0,0 +1,84 @@
+
+# Verileri Tanımlama
+
+| ](../../sketchnotes/03-DefiningData.png)|
+|:---:|
+|Verileri Tanımlama - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Veri, keşifler yapmak ve bilinçli kararları desteklemek için kullanılan gerçekler, bilgiler, gözlemler ve ölçümlerdir. Bir veri noktası, bir veri kümesindeki tek bir veri birimidir ve veri noktalarının bir koleksiyonudur. Veri kümeleri farklı formatlarda ve yapılarda olabilir ve genellikle kaynağına, yani verinin nereden geldiğine bağlıdır. Örneğin, bir şirketin aylık kazançları bir elektronik tablo formatında olabilirken, bir akıllı saatten alınan saatlik kalp atış hızı verileri [JSON](https://stackoverflow.com/a/383699) formatında olabilir. Veri bilimciler genellikle bir veri kümesindeki farklı veri türleriyle çalışırlar.
+
+Bu ders, verileri özelliklerine ve kaynaklarına göre tanımlamaya ve sınıflandırmaya odaklanmaktadır.
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/4)
+## Veriler Nasıl Tanımlanır?
+
+### Ham Veri
+Ham veri, kaynağından gelen ve başlangıç durumunda olan, analiz edilmemiş veya organize edilmemiş veridir. Bir veri kümesinde neler olduğunu anlamak için, hem insanlar hem de veriyi daha fazla analiz etmek için kullanabilecekleri teknoloji tarafından anlaşılabilir bir formata organize edilmesi gerekir. Bir veri kümesinin yapısı, nasıl organize edildiğini tanımlar ve yapılandırılmış, yapılandırılmamış ve yarı yapılandırılmış olarak sınıflandırılabilir. Bu yapı türleri kaynağa bağlı olarak değişir, ancak nihayetinde bu üç kategoriye uyar.
+
+### Nicel Veri
+Nicel veri, bir veri kümesindeki sayısal gözlemlerdir ve genellikle analiz edilebilir, ölçülebilir ve matematiksel olarak kullanılabilir. Nicel veriye bazı örnekler: bir ülkenin nüfusu, bir kişinin boyu veya bir şirketin üç aylık kazançları. Ek analizlerle, nicel veri Hava Kalitesi İndeksi (AQI) için mevsimsel eğilimleri keşfetmek veya tipik bir iş gününde yoğun saat trafiği olasılığını tahmin etmek için kullanılabilir.
+
+### Nitel Veri
+Nitel veri, kategorik veri olarak da bilinir ve nicel veri gözlemleri gibi objektif olarak ölçülemeyen veridir. Genellikle bir ürün veya sürecin kalitesini yakalayan çeşitli formatlarda subjektif verilerdir. Bazen nitel veri sayısal olabilir ve genellikle matematiksel olarak kullanılmaz, örneğin telefon numaraları veya zaman damgaları. Nitel veriye bazı örnekler: video yorumları, bir arabanın marka ve modeli veya en yakın arkadaşlarınızın en sevdiği renk. Nitel veri, tüketicilerin en çok hangi ürünleri sevdiğini anlamak veya iş başvurusu özgeçmişlerinde popüler anahtar kelimeleri belirlemek için kullanılabilir.
+
+### Yapılandırılmış Veri
+Yapılandırılmış veri, satır ve sütunlara organize edilmiş veridir; her satır aynı sütun setine sahip olacaktır. Sütunlar belirli bir türdeki bir değeri temsil eder ve değerin neyi temsil ettiğini açıklayan bir adla tanımlanır, satırlar ise gerçek değerleri içerir. Sütunlar genellikle değerlerin sütunu doğru bir şekilde temsil etmesini sağlamak için belirli bir dizi kural veya kısıtlama içerir. Örneğin, her satırın bir telefon numarasına sahip olması gereken ve telefon numaralarının alfabetik karakterler içermediği bir müşteri elektronik tablosunu hayal edin. Telefon numarası sütununda boş olmaması ve yalnızca sayılar içermesi gerektiğini belirten kurallar uygulanabilir.
+
+Yapılandırılmış verinin bir avantajı, diğer yapılandırılmış verilerle ilişkilendirilebilecek şekilde organize edilebilmesidir. Ancak, veri belirli bir şekilde organize edilmek üzere tasarlandığından, genel yapısını değiştirmek çok fazla çaba gerektirebilir. Örneğin, müşteri elektronik tablosuna boş olamayacak bir e-posta sütunu eklemek, mevcut müşteri satırlarına bu değerleri nasıl ekleyeceğinizi bulmanızı gerektirir.
+
+Yapılandırılmış veri örnekleri: elektronik tablolar, ilişkisel veritabanları, telefon numaraları, banka ekstreleri
+
+### Yapılandırılmamış Veri
+Yapılandırılmamış veri genellikle satır veya sütunlara kategorize edilemez ve bir format veya takip edilecek bir dizi kural içermez. Yapılandırılmamış verinin yapısında daha az kısıtlama olduğu için, yapılandırılmış bir veri kümesine kıyasla yeni bilgi eklemek daha kolaydır. Örneğin, her 2 dakikada bir barometrik basınç verisi toplayan bir sensörün artık sıcaklık ölçüp kaydedebilmesini sağlayan bir güncelleme alması, yapılandırılmamışsa mevcut veriyi değiştirmeyi gerektirmez. Ancak, bu tür verileri analiz etmek veya incelemek daha uzun sürebilir. Örneğin, bir bilim insanı sensör verilerinden geçen ayın ortalama sıcaklığını bulmak ister, ancak sensörün bazı verilerinde "e" kaydettiğini ve bunun sensörün bozuk olduğunu belirtmek için kullanıldığını keşfeder, bu da verinin eksik olduğu anlamına gelir.
+
+Yapılandırılmamış veri örnekleri: metin dosyaları, metin mesajları, video dosyaları
+
+### Yarı Yapılandırılmış Veri
+Yarı yapılandırılmış veri, yapılandırılmış ve yapılandırılmamış verinin bir kombinasyonu olan özelliklere sahiptir. Genellikle satır ve sütun formatına uymasa da, yapılandırılmış olarak kabul edilen bir şekilde organize edilir ve sabit bir format veya bir dizi kurala uyabilir. Yapı, kaynaklar arasında değişir; iyi tanımlanmış bir hiyerarşiden, yeni bilgilerin kolayca entegre edilmesine izin veren daha esnek bir yapıya kadar. Meta veriler, verilerin nasıl organize edildiğini ve saklandığını belirlemeye yardımcı olan göstergelerdir ve veri türüne bağlı olarak çeşitli adlara sahip olacaktır. Meta veriler için yaygın adlar arasında etiketler, öğeler, varlıklar ve öznitelikler bulunur. Örneğin, tipik bir e-posta mesajı bir konu, gövde ve bir alıcılar setine sahip olacaktır ve kim tarafından veya ne zaman gönderildiğine göre organize edilebilir.
+
+Yarı yapılandırılmış veri örnekleri: HTML, CSV dosyaları, JavaScript Object Notation (JSON)
+
+## Veri Kaynakları
+
+Bir veri kaynağı, verinin oluşturulduğu veya "yaşadığı" ilk konumdur ve nasıl ve ne zaman toplandığına bağlı olarak değişir. Kullanıcı(lar) tarafından oluşturulan veriler birincil veri olarak bilinirken, genel kullanım için veri toplayan bir kaynaktan gelen veriler ikincil veri olarak adlandırılır. Örneğin, bir grup bilim insanının bir yağmur ormanında gözlemler toplaması birincil olarak kabul edilir ve bu verileri diğer bilim insanlarıyla paylaşmaya karar verirlerse, bunu kullananlar için ikincil olarak kabul edilir.
+
+Veritabanları yaygın bir kaynaktır ve bir veritabanı yönetim sistemi, kullanıcıların veriyi keşfetmek için sorgular adı verilen komutlar kullandığı veriyi barındırmak ve sürdürmek için gereklidir. Veri kaynakları olarak dosyalar, ses, görüntü ve video dosyaları ile Excel gibi elektronik tablolar olabilir. İnternet kaynakları, veritabanlarının yanı sıra dosyaların bulunabileceği yaygın bir veri barındırma yeridir. Uygulama programlama arayüzleri, API'ler olarak da bilinir, programcıların internet üzerinden harici kullanıcılarla veri paylaşma yolları oluşturmasına olanak tanır, web kazıma ise bir web sayfasından veri çıkarma işlemidir. [Verilerle Çalışma dersleri](../../../../../../../../../2-Working-With-Data), çeşitli veri kaynaklarını nasıl kullanacağınızı öğrenmeye odaklanır.
+
+## Sonuç
+
+Bu derste öğrendik:
+
+- Verinin ne olduğunu
+- Verinin nasıl tanımlandığını
+- Verinin nasıl sınıflandırıldığını ve kategorize edildiğini
+- Verinin nerede bulunabileceğini
+
+## 🚀 Zorluk
+
+Kaggle, açık veri kümeleri için mükemmel bir kaynaktır. [Veri kümesi arama aracı](https://www.kaggle.com/datasets) ile ilginç veri kümeleri bulun ve 3-5 veri kümesini şu kriterlere göre sınıflandırın:
+
+- Veri nicel mi yoksa nitel mi?
+- Veri yapılandırılmış, yapılandırılmamış mı yoksa yarı yapılandırılmış mı?
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/5)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+- Bu Microsoft Learn birimi, [Verinizi Sınıflandırın](https://docs.microsoft.com/en-us/learn/modules/choose-storage-approach-in-azure/2-classify-data) başlıklı, yapılandırılmış, yarı yapılandırılmış ve yapılandırılmamış verilerin ayrıntılı bir dökümüne sahiptir.
+
+## Ödev
+
+[Veri Kümelerini Sınıflandırma](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/03-defining-data/assignment.md b/translations/tr/1-Introduction/03-defining-data/assignment.md
new file mode 100644
index 00000000..7f5bc816
--- /dev/null
+++ b/translations/tr/1-Introduction/03-defining-data/assignment.md
@@ -0,0 +1,79 @@
+
+# Veri Setlerini Sınıflandırma
+
+## Talimatlar
+
+Bu ödevdeki yönergeleri takip ederek verileri aşağıdaki veri türlerinden biriyle tanımlayın ve sınıflandırın:
+
+**Yapı Türleri**: Yapılandırılmış, Yarı Yapılandırılmış veya Yapılandırılmamış
+
+**Değer Türleri**: Niteliksel veya Niceliksel
+
+**Kaynak Türleri**: Birincil veya İkincil
+
+1. Bir şirket satın alındı ve artık bir ana şirkete sahip. Veri bilimciler, ana şirketten müşteri telefon numaralarının bulunduğu bir elektronik tablo aldı.
+
+Yapı Türü:
+
+Değer Türü:
+
+Kaynak Türü:
+
+---
+
+2. Bir akıllı saat, kullanıcısının kalp atış hızı verilerini topluyor ve ham veriler JSON formatında.
+
+Yapı Türü:
+
+Değer Türü:
+
+Kaynak Türü:
+
+---
+
+3. Çalışan moraline ilişkin bir işyeri anketi, bir CSV dosyasında saklanıyor.
+
+Yapı Türü:
+
+Değer Türü:
+
+Kaynak Türü:
+
+---
+
+4. Astrofizikçiler, bir uzay sondası tarafından toplanan galaksilere ait bir veritabanına erişiyor. Veriler, her galaksideki gezegen sayısını içeriyor.
+
+Yapı Türü:
+
+Değer Türü:
+
+Kaynak Türü:
+
+---
+
+5. Bir kişisel finans uygulaması, bir kullanıcının finansal hesaplarına bağlanmak için API'leri kullanıyor ve net değerlerini hesaplıyor. Kullanıcı, tüm işlemlerini satır ve sütun formatında, bir elektronik tabloya benzer bir şekilde görebiliyor.
+
+Yapı Türü:
+
+Değer Türü:
+
+Kaynak Türü:
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekli
+--- | --- | -- |
+Tüm yapı, değer ve kaynak türlerini doğru bir şekilde tanımlar | 3 yapı, değer ve kaynak türünü doğru bir şekilde tanımlar | 2 veya daha az yapı, değer ve kaynak türünü doğru bir şekilde tanımlar |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan herhangi bir yanlış anlama veya yanlış yorumlama durumunda sorumluluk kabul edilmez.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/04-stats-and-probability/README.md b/translations/tr/1-Introduction/04-stats-and-probability/README.md
new file mode 100644
index 00000000..3eb65dbe
--- /dev/null
+++ b/translations/tr/1-Introduction/04-stats-and-probability/README.md
@@ -0,0 +1,276 @@
+
+# İstatistik ve Olasılığa Kısa Bir Giriş
+
+| ](../../sketchnotes/04-Statistics-Probability.png)|
+|:---:|
+| İstatistik ve Olasılık - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+İstatistik ve Olasılık Teorisi, Matematiğin birbiriyle yakından ilişkili ve Veri Bilimi açısından oldukça önemli iki alanıdır. Matematik hakkında derin bir bilgiye sahip olmadan veriyle çalışmak mümkün olsa da, en azından bazı temel kavramları bilmek her zaman daha iyidir. Burada, başlangıç yapmanıza yardımcı olacak kısa bir giriş sunacağız.
+
+[](https://youtu.be/Z5Zy85g4Yjw)
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/6)
+
+## Olasılık ve Rastgele Değişkenler
+
+**Olasılık**, bir **olayın** ne kadar olası olduğunu ifade eden 0 ile 1 arasında bir sayıdır. Pozitif sonuçların (olaya yol açan sonuçlar) sayısının, tüm sonuçların toplamına bölünmesiyle tanımlanır; burada tüm sonuçların eşit olasılıkla gerçekleştiği varsayılır. Örneğin, bir zar attığımızda, çift bir sayı gelme olasılığı 3/6 = 0.5'tir.
+
+Olaylardan bahsederken **rastgele değişkenler** kullanırız. Örneğin, bir zar attığımızda elde edilen sayıyı temsil eden rastgele değişken, 1 ile 6 arasında değerler alır. 1'den 6'ya kadar olan sayı kümesine **örnek uzayı** denir. Rastgele bir değişkenin belirli bir değeri alma olasılığından bahsedebiliriz, örneğin P(X=3)=1/6.
+
+Önceki örnekteki rastgele değişken **ayrık** olarak adlandırılır, çünkü sayılabilir bir örnek uzayına sahiptir, yani ayrı ayrı sıralanabilen değerler vardır. Örnek uzayının gerçek sayıların bir aralığı veya tüm gerçek sayı kümesi olduğu durumlar da vardır. Bu tür değişkenlere **sürekli** denir. İyi bir örnek, otobüsün varış zamanı olabilir.
+
+## Olasılık Dağılımı
+
+Ayrık rastgele değişkenler durumunda, her olayın olasılığını P(X) fonksiyonu ile tanımlamak kolaydır. Örnek uzayı *S*'den her bir değer *s* için, 0 ile 1 arasında bir sayı verir ve tüm olaylar için P(X=s) değerlerinin toplamı 1 olur.
+
+En bilinen ayrık dağılım **uniform dağılım**dır; burada N elemanlı bir örnek uzayı vardır ve her bir elemanın olasılığı 1/N'dir.
+
+Sürekli bir değişkenin olasılık dağılımını tanımlamak daha zordur; bu değişkenin değerleri [a,b] aralığından veya tüm gerçek sayı kümesinden ℝ alınır. Örneğin, otobüsün varış zamanını ele alalım. Aslında, belirli bir varış zamanı *t* için, otobüsün tam olarak o anda varma olasılığı 0'dır!
+
+> Şimdi biliyorsunuz ki olasılığı 0 olan olaylar gerçekleşir ve oldukça sık! En azından her otobüs geldiğinde!
+
+Sadece bir değişkenin belirli bir değer aralığına düşme olasılığından bahsedebiliriz, örneğin P(t1≤X2). Bu durumda, olasılık dağılımı **olasılık yoğunluk fonksiyonu** p(x) ile tanımlanır, şöyle ki:
+
+![P(t_1\le X1, x2, ..., xn. **Ortalama** (veya **aritmetik ortalama**) değeri, geleneksel şekilde (x1+x2+xn)/n olarak tanımlanabilir. Örnek boyutunu büyüttükçe (yani n→∞ limiti alındığında), dağılımın ortalamasını (aynı zamanda **beklenti** olarak adlandırılır) elde ederiz. Beklentiyi **E**(x) ile göstereceğiz.
+
+> Herhangi bir ayrık dağılım için, {x1, x2, ..., xN} değerleri ve bunlara karşılık gelen p1, p2, ..., pN olasılıkları ile, beklenti E(X)=x1p1+x2p2+...+xNpN eşitliğine ulaşılır.
+
+Değerlerin ne kadar yayıldığını belirlemek için varyansı hesaplayabiliriz: σ2 = ∑(xi - μ)2/n, burada μ dizinin ortalamasıdır. σ değeri **standart sapma**, σ2 ise **varyans** olarak adlandırılır.
+
+## Mod, Medyan ve Çeyrekler
+
+Bazen ortalama, veriler için "tipik" değeri yeterince temsil etmez. Örneğin, birkaç aşırı değer tamamen aralık dışındaysa, bunlar ortalamayı etkileyebilir. Bir diğer iyi gösterge **medyan**dır; bu, veri noktalarının yarısının altında, diğer yarısının ise üstünde olduğu bir değerdir.
+
+Veri dağılımını anlamamıza yardımcı olmak için **çeyreklerden** bahsetmek faydalıdır:
+
+* Birinci çeyrek, veya Q1, verilerin %25'inin altında olduğu bir değerdir
+* Üçüncü çeyrek, veya Q3, verilerin %75'inin altında olduğu bir değerdir
+
+Medyan ve çeyrekler arasındaki ilişkiyi grafiksel olarak **kutu grafiği** adı verilen bir diyagramda gösterebiliriz:
+
+
+
+Burada ayrıca **çeyrekler arası aralık** IQR=Q3-Q1 ve **aykırı değerler** - [Q1-1.5*IQR,Q3+1.5*IQR] sınırlarının dışında kalan değerler - hesaplanır.
+
+Olası değerlerin küçük bir sayıda olduğu sonlu bir dağılım için, en sık görülen "tipik" değer, **mod** olarak adlandırılır. Mod genellikle kategorik verilere uygulanır, örneğin renklere. İki grup insan olduğunu düşünün - biri kırmızıyı, diğeri maviyi güçlü bir şekilde tercih ediyor. Renkleri sayılarla kodlarsak, favori renk için ortalama değer turuncu-yeşil spektrumunda bir yerde olur, bu da hiçbir grubun gerçek tercihini göstermez. Ancak mod, ya renklerden biri ya da her iki renk olur; eğer bu renklere oy veren kişi sayısı eşitse (bu durumda örnek **çok modlu** olarak adlandırılır).
+
+## Gerçek Dünya Verileri
+
+Gerçek hayattan veri analiz ettiğimizde, bu veriler tam anlamıyla rastgele değişkenler olmayabilir; yani bilinmeyen sonuçlarla deneyler yapmayız. Örneğin, bir beyzbol oyuncusu takımını ve onların boy, kilo ve yaş gibi vücut verilerini düşünün. Bu sayılar tam olarak rastgele olmasa da, yine de aynı matematiksel kavramları uygulayabiliriz. Örneğin, insanların kilolarının bir dizisi, bir rastgele değişkenden alınan değerler dizisi olarak düşünülebilir. Aşağıda [Major League Baseball](http://mlb.mlb.com/index.jsp) oyuncularının [bu veri setinden](http://wiki.stat.ucla.edu/socr/index.php/SOCR_Data_MLB_HeightsWeights) alınan gerçek kilolarının dizisi verilmiştir (sadece ilk 20 değer gösterilmiştir):
+
+```
+[180.0, 215.0, 210.0, 210.0, 188.0, 176.0, 209.0, 200.0, 231.0, 180.0, 188.0, 180.0, 185.0, 160.0, 180.0, 185.0, 197.0, 189.0, 185.0, 219.0]
+```
+
+> **Not**: Bu veri setiyle çalışma örneğini görmek için [ilgili notebook](notebook.ipynb)'a göz atabilirsiniz. Bu ders boyunca bir dizi zorluk da bulunmaktadır ve bu notebook'a biraz kod ekleyerek tamamlayabilirsiniz. Veriler üzerinde nasıl işlem yapacağınızı bilmiyorsanız endişelenmeyin - Python kullanarak veri üzerinde çalışmaya daha sonra geri döneceğiz. Jupyter Notebook'ta kod çalıştırmayı bilmiyorsanız, [bu makaleye](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) göz atabilirsiniz.
+
+İşte verilerimiz için ortalama, medyan ve çeyrekleri gösteren kutu grafiği:
+
+
+
+Verilerimiz farklı oyuncu **rolleri** hakkında bilgi içerdiğinden, rollere göre kutu grafiği de yapabiliriz - bu, parametre değerlerinin roller arasında nasıl farklılık gösterdiği hakkında fikir edinmemizi sağlar. Bu sefer boyu ele alacağız:
+
+
+
+Bu diyagram, ortalama olarak birinci baz oyuncularının boyunun ikinci baz oyuncularının boyundan daha yüksek olduğunu göstermektedir. Bu dersin ilerleyen bölümlerinde bu hipotezi daha resmi bir şekilde nasıl test edebileceğimizi ve verilerimizin bu durumu göstermek için istatistiksel olarak anlamlı olduğunu nasıl kanıtlayabileceğimizi öğreneceğiz.
+
+> Gerçek dünya verileriyle çalışırken, tüm veri noktalarının bir olasılık dağılımından alınan örnekler olduğunu varsayarız. Bu varsayım, makine öğrenimi tekniklerini uygulamamıza ve çalışan tahmin modelleri oluşturmamıza olanak tanır.
+
+Verilerimizin dağılımını görmek için **histogram** adı verilen bir grafik çizebiliriz. X ekseni, farklı kilo aralıklarını (sözde **binler**) içerir ve dikey eksen, rastgele değişken örneğimizin belirli bir aralıkta olduğu zamanların sayısını gösterir.
+
+
+
+Bu histogramdan, tüm değerlerin belirli bir ortalama kilonun etrafında toplandığını ve bu kilodan uzaklaştıkça, o değerdeki kiloların daha az sıklıkla karşılaşıldığını görebilirsiniz. Yani, bir beyzbol oyuncusunun kilosunun ortalama kilodan çok farklı olması oldukça olasılık dışıdır. Kiloların varyansı, kiloların ortalamadan ne kadar farklı olma olasılığını gösterir.
+
+> Eğer beyzbol liginden olmayan diğer insanların kilolarını alırsak, dağılım muhtemelen farklı olacaktır. Ancak, dağılımın şekli aynı kalacak, sadece ortalama ve varyans değişecektir. Bu nedenle, modelimizi beyzbol oyuncuları üzerinde eğitirsek, üniversite öğrencilerine uygulandığında yanlış sonuçlar vermesi muhtemeldir, çünkü temel dağılım farklıdır.
+
+## Normal Dağılım
+
+Yukarıda gördüğümüz kilo dağılımı oldukça tipiktir ve gerçek dünyadan birçok ölçüm aynı türde bir dağılımı takip eder, ancak farklı ortalama ve varyanslarla. Bu dağılıma **normal dağılım** denir ve istatistikte çok önemli bir rol oynar.
+
+Normal dağılım kullanmak, potansiyel beyzbol oyuncularının rastgele kilolarını üretmenin doğru bir yoludur. Ortalama kilo `mean` ve standart sapma `std` değerlerini bildiğimizde, 1000 kilo örneği şu şekilde üretebiliriz:
+```python
+samples = np.random.normal(mean,std,1000)
+```
+
+Üretilen örneklerin histogramını çizersek, yukarıda gösterilen resme çok benzeyen bir görüntü görürüz. Örnek sayısını ve bin sayısını artırırsak, ideal bir normal dağılıma daha yakın bir görüntü oluşturabiliriz:
+
+
+
+*Ortalama=0 ve std.dev=1 ile Normal Dağılım*
+
+## Güven Aralıkları
+
+Beyzbol oyuncularının kilolarından bahsederken, tüm beyzbol oyuncularının kilolarının ideal olasılık dağılımına karşılık gelen **rastgele değişken W** olduğunu varsayarız (sözde **popülasyon**). Kilo dizimiz, tüm beyzbol oyuncularının bir alt kümesine karşılık gelir ve buna **örneklem** deriz. İlginç bir soru şu: W'nin dağılım parametrelerini, yani popülasyonun ortalama ve varyansını bilebilir miyiz?
+
+En kolay cevap, örneklemimizin ortalama ve varyansını hesaplamak olacaktır. Ancak, rastgele örneklemimizin tüm popülasyonu doğru bir şekilde temsil etmediği durumlar olabilir. Bu nedenle **güven aralığı** hakkında konuşmak mantıklıdır.
+> **Güven aralığı**, örneklemimize dayanarak popülasyonun gerçek ortalamasını belirli bir olasılıkla (veya **güven düzeyi**) doğru bir şekilde tahmin etme yöntemidir.
+Varsayalım ki dağılımımızdan X1, ..., Xn örneklerini aldık. Dağılımımızdan her örnek aldığımızda, farklı bir ortalama değer μ elde ederiz. Bu nedenle μ bir rastgele değişken olarak düşünülebilir. Güven olasılığı p olan bir **güven aralığı**, (Lp,Rp) şeklinde bir değer çiftidir ve **P**(Lp≤μ≤Rp) = p, yani ölçülen ortalama değerin bu aralık içinde yer alma olasılığı p'ye eşittir.
+
+Bu güven aralıklarının nasıl hesaplandığını detaylı bir şekilde tartışmak, kısa girişimizin ötesine geçer. Daha fazla detayı [Wikipedia'da](https://en.wikipedia.org/wiki/Confidence_interval) bulabilirsiniz. Kısaca, popülasyonun gerçek ortalamasına göre hesaplanan örnek ortalamasının dağılımını tanımlarız; bu dağılıma **student dağılımı** denir.
+
+> **İlginç bir bilgi**: Student dağılımı, matematikçi William Sealy Gosset'in takma adı "Student" ile yayınladığı makalesinden adını almıştır. Gosset, Guinness bira fabrikasında çalışıyordu ve bir versiyona göre, işvereni, ham maddelerin kalitesini belirlemek için istatistiksel testler kullandıklarını kamuoyunun bilmesini istemiyordu.
+
+Popülasyonumuzun ortalaması μ'yü güven olasılığı p ile tahmin etmek istiyorsak, bir Student dağılımı A'nın *(1-p)/2'nci yüzdelik dilimini* almamız gerekir. Bu değer tablolar aracılığıyla veya istatistiksel yazılımların (örneğin Python, R, vb.) yerleşik fonksiyonları kullanılarak hesaplanabilir. Daha sonra μ için aralık X±A*D/√n şeklinde olur; burada X örnekten elde edilen ortalama, D standart sapmadır.
+
+> **Not**: Student dağılımıyla ilgili önemli bir kavram olan [serbestlik dereceleri](https://en.wikipedia.org/wiki/Degrees_of_freedom_(statistics)) tartışmasını da atlıyoruz. Bu kavramı daha derinlemesine anlamak için istatistik üzerine daha kapsamlı kitaplara başvurabilirsiniz.
+
+Ağırlıklar ve boylar için güven aralığı hesaplama örneği [eşlik eden not defterinde](notebook.ipynb) verilmiştir.
+
+| p | Ağırlık ortalaması |
+|------|--------------------|
+| 0.85 | 201.73±0.94 |
+| 0.90 | 201.73±1.08 |
+| 0.95 | 201.73±1.28 |
+
+Dikkat edin, güven olasılığı arttıkça güven aralığı genişler.
+
+## Hipotez Testi
+
+Beyzbol oyuncuları veri setimizde farklı oyuncu rolleri bulunmaktadır. Bu roller aşağıda özetlenmiştir (bu tablonun nasıl hesaplandığını görmek için [eşlik eden not defterine](notebook.ipynb) bakın):
+
+| Rol | Boy | Ağırlık | Sayı |
+|-------------------|-----------|-----------|-------|
+| Catcher | 72.723684 | 204.328947 | 76 |
+| Designated_Hitter | 74.222222 | 220.888889 | 18 |
+| First_Baseman | 74.000000 | 213.109091 | 55 |
+| Outfielder | 73.010309 | 199.113402 | 194 |
+| Relief_Pitcher | 74.374603 | 203.517460 | 315 |
+| Second_Baseman | 71.362069 | 184.344828 | 58 |
+| Shortstop | 71.903846 | 182.923077 | 52 |
+| Starting_Pitcher | 74.719457 | 205.163636 | 221 |
+| Third_Baseman | 73.044444 | 200.955556 | 45 |
+
+İlk kalecilerin ortalama boylarının ikinci kalecilerinkinden daha yüksek olduğunu fark edebiliriz. Bu nedenle, **ilk kaleciler ikinci kalecilerden daha uzundur** sonucuna varabiliriz.
+
+> Bu ifade **bir hipotez** olarak adlandırılır, çünkü bu durumun gerçekten doğru olup olmadığını bilmiyoruz.
+
+Ancak, bu sonuca varmanın her zaman açık bir yolu yoktur. Yukarıdaki tartışmadan, her ortalamanın bir güven aralığına sahip olduğunu ve bu farkın sadece istatistiksel bir hata olabileceğini biliyoruz. Hipotezimizi test etmek için daha resmi bir yönteme ihtiyacımız var.
+
+İlk ve ikinci kalecilerin boyları için güven aralıklarını ayrı ayrı hesaplayalım:
+
+| Güven | İlk Kaleciler | İkinci Kaleciler |
+|-----------|---------------|------------------|
+| 0.85 | 73.62..74.38 | 71.04..71.69 |
+| 0.90 | 73.56..74.44 | 70.99..71.73 |
+| 0.95 | 73.47..74.53 | 70.92..71.81 |
+
+Hiçbir güven olasılığında aralıkların örtüşmediğini görebiliriz. Bu, ilk kalecilerin ikinci kalecilerden daha uzun olduğu hipotezimizi kanıtlar.
+
+Daha resmi olarak, çözmeye çalıştığımız problem, **iki olasılık dağılımının aynı olup olmadığını** veya en azından aynı parametrelere sahip olup olmadığını görmektir. Dağılıma bağlı olarak, bunun için farklı testler kullanmamız gerekir. Dağılımlarımızın normal olduğunu biliyorsak, **[Student t-testi](https://en.wikipedia.org/wiki/Student%27s_t-test)** uygulayabiliriz.
+
+Student t-testinde, varyansı dikkate alarak ortalamalar arasındaki farkı gösteren **t-değeri** hesaplanır. T-değerinin **student dağılımını** takip ettiği gösterilmiştir, bu da bize belirli bir güven seviyesi **p** için eşik değerini verir (bu hesaplanabilir veya sayısal tablolardan bulunabilir). Daha sonra hipotezi onaylamak veya reddetmek için t-değerini bu eşikle karşılaştırırız.
+
+Python'da, `ttest_ind` fonksiyonunu içeren **SciPy** paketini kullanabiliriz (diğer birçok faydalı istatistiksel fonksiyonun yanı sıra!). Bu fonksiyon bizim için t-değerini hesaplar ve ayrıca güven p-değerinin tersine bakar, böylece sadece güven seviyesine bakarak sonuca varabiliriz.
+
+Örneğin, ilk ve ikinci kalecilerin boyları arasındaki karşılaştırmamız bize şu sonuçları verir:
+```python
+from scipy.stats import ttest_ind
+
+tval, pval = ttest_ind(df.loc[df['Role']=='First_Baseman',['Height']], df.loc[df['Role']=='Designated_Hitter',['Height']],equal_var=False)
+print(f"T-value = {tval[0]:.2f}\nP-value: {pval[0]}")
+```
+```
+T-value = 7.65
+P-value: 9.137321189738925e-12
+```
+Bizim durumumuzda, p-değeri oldukça düşük, bu da ilk kalecilerin daha uzun olduğuna dair güçlü bir kanıt olduğunu gösterir.
+
+Test etmek isteyebileceğimiz diğer hipotez türleri de vardır, örneğin:
+* Belirli bir örneğin bir dağılıma uyduğunu kanıtlamak. Bizim durumumuzda boyların normal dağıldığını varsaydık, ancak bu resmi istatistiksel doğrulama gerektirir.
+* Bir örnek ortalamasının önceden tanımlanmış bir değere karşılık geldiğini kanıtlamak
+* Birden fazla örneğin ortalamalarını karşılaştırmak (örneğin, farklı yaş gruplarındaki mutluluk seviyeleri arasındaki fark nedir)
+
+## Büyük Sayılar Yasası ve Merkezi Limit Teoremi
+
+Normal dağılımın neden bu kadar önemli olduğunun nedenlerinden biri, **merkezi limit teoremi** olarak adlandırılır. Bağımsız N değeri X1, ..., XN içeren büyük bir örnek aldığımızı varsayalım; bu değerler herhangi bir dağılımdan ortalama μ ve varyans σ2 ile alınmıştır. Daha sonra, yeterince büyük N için (diğer bir deyişle, N→∞ olduğunda), ΣiXi ortalaması normal dağılıma sahip olur, ortalama μ ve varyans σ2/N ile.
+
+> Merkezi limit teoremini yorumlamanın başka bir yolu, dağılım ne olursa olsun, herhangi bir rastgele değişken değerlerinin toplamının ortalamasını hesapladığınızda normal dağılıma ulaşırsınız.
+
+Merkezi limit teoreminden ayrıca şu sonuç çıkar: N→∞ olduğunda, örnek ortalamasının μ'ye eşit olma olasılığı 1 olur. Bu, **büyük sayılar yasası** olarak bilinir.
+
+## Kovaryans ve Korelasyon
+
+Veriler arasındaki ilişkileri bulmak, Veri Bilimi'nin yaptığı şeylerden biridir. İki dizinin **korelasyon** gösterdiğini, aynı anda benzer davranış sergilediklerinde, yani birlikte yükselip/düştüklerinde veya biri yükselirken diğerinin düştüğünde ve tam tersinde söyleriz. Diğer bir deyişle, iki dizi arasında bir ilişki var gibi görünür.
+
+> Korelasyon, iki dizi arasında nedensel bir ilişki olduğunu mutlaka göstermez; bazen her iki değişken de bazı dış nedenlere bağlı olabilir veya iki dizinin korelasyonu tamamen tesadüfi olabilir. Ancak, güçlü matematiksel korelasyon, iki değişkenin bir şekilde bağlantılı olduğuna dair iyi bir göstergedir.
+
+Matematiksel olarak, iki rastgele değişken arasındaki ilişkiyi gösteren ana kavram **kovaryans**dır ve şu şekilde hesaplanır: Cov(X,Y) = **E**\[(X-**E**(X))(Y-**E**(Y))\]. Her iki değişkenin ortalama değerlerinden sapmalarını hesaplar ve bu sapmaların çarpımını alırız. Eğer her iki değişken birlikte saparsa, çarpım her zaman pozitif bir değer olur ve bu pozitif kovaryansa eklenir. Eğer her iki değişken senkronize olmayan şekilde saparsa (yani biri ortalamanın altına düşerken diğeri ortalamanın üstüne çıkarsa), her zaman negatif sayılar elde ederiz ve bu negatif kovaryansa eklenir. Eğer sapmalar bağımsızsa, yaklaşık olarak sıfıra eklenir.
+
+Kovaryansın mutlak değeri, korelasyonun ne kadar büyük olduğunu bize pek söylemez, çünkü gerçek değerlerin büyüklüğüne bağlıdır. Bunu normalleştirmek için kovaryansı her iki değişkenin standart sapmasına bölebiliriz ve **korelasyon** elde ederiz. İyi olan şey, korelasyonun her zaman [-1,1] aralığında olmasıdır; burada 1, değerler arasında güçlü pozitif korelasyonu, -1 güçlü negatif korelasyonu ve 0 hiçbir korelasyon olmadığını (değişkenler bağımsızdır) gösterir.
+
+**Örnek**: Yukarıda belirtilen veri setindeki beyzbol oyuncularının ağırlıkları ve boyları arasındaki korelasyonu hesaplayabiliriz:
+```python
+print(np.corrcoef(weights,heights))
+```
+Sonuç olarak, şu şekilde bir **korelasyon matrisi** elde ederiz:
+```
+array([[1. , 0.52959196],
+ [0.52959196, 1. ]])
+```
+
+> Korelasyon matrisi C, S1, ..., Sn giriş dizilerinin herhangi bir sayısı için hesaplanabilir. Cij değeri, Si ve Sj arasındaki korelasyonu gösterir ve diyagonal elemanlar her zaman 1'dir (bu aynı zamanda Si'nin kendi kendine korelasyonudur).
+
+Bizim durumumuzda, 0.53 değeri, bir kişinin ağırlığı ile boyu arasında bir miktar korelasyon olduğunu gösterir. Ayrıca, ilişkiyi görsel olarak görmek için bir değeri diğerine karşı dağılım grafiği yapabiliriz:
+
+
+
+> Korelasyon ve kovaryans ile ilgili daha fazla örnek [eşlik eden not defterinde](notebook.ipynb) bulunabilir.
+
+## Sonuç
+
+Bu bölümde şunları öğrendik:
+
+* verilerin temel istatistiksel özellikleri, örneğin ortalama, varyans, mod ve çeyrekler
+* rastgele değişkenlerin farklı dağılımları, normal dağılım dahil
+* farklı özellikler arasındaki korelasyonu nasıl bulacağımız
+* bazı hipotezleri kanıtlamak için matematik ve istatistiklerin sağlam araçlarını nasıl kullanacağımız
+* veri örneği verilen rastgele değişken için güven aralıklarını nasıl hesaplayacağımız
+
+Bu, olasılık ve istatistik içinde var olan konuların kesinlikle kapsamlı bir listesi olmasa da, bu kursa iyi bir başlangıç yapmanız için yeterli olmalıdır.
+
+## 🚀 Zorluk
+
+Not defterindeki örnek kodu kullanarak şu hipotezleri test edin:
+1. İlk kaleciler ikinci kalecilerden daha yaşlıdır
+2. İlk kaleciler üçüncü kalecilerden daha uzundur
+3. Shortstop'lar ikinci kalecilerden daha uzundur
+
+## [Ders sonrası test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/7)
+
+## İnceleme ve Kendi Kendine Çalışma
+
+Olasılık ve istatistik, kendi kursunu hak eden çok geniş bir konudur. Teoriye daha derinlemesine dalmak istiyorsanız, aşağıdaki kitaplardan bazılarını okumaya devam edebilirsiniz:
+
+1. New York Üniversitesi'nden [Carlos Fernandez-Granda](https://cims.nyu.edu/~cfgranda/) harika ders notlarına sahiptir: [Probability and Statistics for Data Science](https://cims.nyu.edu/~cfgranda/pages/stuff/probability_stats_for_DS.pdf) (çevrimiçi olarak mevcut)
+1. [Peter ve Andrew Bruce. Practical Statistics for Data Scientists.](https://www.oreilly.com/library/view/practical-statistics-for/9781491952955/) [[R'de örnek kod](https://github.com/andrewgbruce/statistics-for-data-scientists)].
+1. [James D. Miller. Statistics for Data Science](https://www.packtpub.com/product/statistics-for-data-science/9781788290678) [[R'de örnek kod](https://github.com/PacktPublishing/Statistics-for-Data-Science)]
+
+## Ödev
+
+[Küçük Diyabet Çalışması](assignment.md)
+
+## Katkılar
+
+Bu ders [Dmitry Soshnikov](http://soshnikov.com) tarafından ♥️ ile hazırlanmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/04-stats-and-probability/assignment.md b/translations/tr/1-Introduction/04-stats-and-probability/assignment.md
new file mode 100644
index 00000000..617f8a0b
--- /dev/null
+++ b/translations/tr/1-Introduction/04-stats-and-probability/assignment.md
@@ -0,0 +1,40 @@
+
+# Küçük Diyabet Çalışması
+
+Bu ödevde, [buradan](https://www4.stat.ncsu.edu/~boos/var.select/diabetes.html) alınan diyabet hastalarına ait küçük bir veri seti ile çalışacağız.
+
+| | YAŞ | CİNSİYET | BMI | BP | S1 | S2 | S3 | S4 | S5 | S6 | Y |
+|---|-----|----------|-----|----|----|----|----|----|----|----|----|
+| 0 | 59 | 2 | 32.1 | 101. | 157 | 93.2 | 38.0 | 4. | 4.8598 | 87 | 151 |
+| 1 | 48 | 1 | 21.6 | 87.0 | 183 | 103.2 | 70. | 3. | 3.8918 | 69 | 75 |
+| 2 | 72 | 2 | 30.5 | 93.0 | 156 | 93.6 | 41.0 | 4.0 | 4. | 85 | 141 |
+| ... | ... | ... | ... | ...| ...| ...| ...| ...| ...| ...| ... |
+
+## Talimatlar
+
+* [assignment notebook](assignment.ipynb) dosyasını bir jupyter notebook ortamında açın
+* Notebook'ta listelenen tüm görevleri tamamlayın, yani:
+ * [ ] Tüm değerler için ortalama ve varyans hesaplayın
+ * [ ] Cinsiyete bağlı olarak BMI, BP ve Y için kutu grafikleri çizin
+ * [ ] Yaş, Cinsiyet, BMI ve Y değişkenlerinin dağılımı nedir?
+ * [ ] Farklı değişkenler ile hastalık ilerlemesi (Y) arasındaki korelasyonu test edin
+ * [ ] Diyabet ilerleme derecesinin erkekler ve kadınlar arasında farklı olduğuna dair hipotezi test edin
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Gerekli tüm görevler tamamlanmış, grafiklerle gösterilmiş ve açıklanmış | Görevlerin çoğu tamamlanmış, grafiklerden veya elde edilen değerlerden açıklamalar veya çıkarımlar eksik | Sadece ortalama/varyans hesaplama ve temel grafikler gibi basit görevler tamamlanmış, veriden herhangi bir sonuç çıkarılmamış
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/1-Introduction/README.md b/translations/tr/1-Introduction/README.md
new file mode 100644
index 00000000..e3a99cb9
--- /dev/null
+++ b/translations/tr/1-Introduction/README.md
@@ -0,0 +1,31 @@
+
+# Veri Bilimine Giriş
+
+
+> Fotoğraf: Stephen Dawson tarafından Unsplash üzerinde
+
+Bu derslerde, Veri Bilimi'nin nasıl tanımlandığını keşfedecek ve bir veri bilimcinin dikkate alması gereken etik konuları öğreneceksiniz. Ayrıca verinin nasıl tanımlandığını öğrenecek ve Veri Bilimi'nin temel akademik alanları olan istatistik ve olasılık hakkında biraz bilgi edineceksiniz.
+
+### Konular
+
+1. [Veri Bilimini Tanımlama](01-defining-data-science/README.md)
+2. [Veri Bilimi Etiği](02-ethics/README.md)
+3. [Veriyi Tanımlama](03-defining-data/README.md)
+4. [İstatistik ve Olasılığa Giriş](04-stats-and-probability/README.md)
+
+### Katkıda Bulunanlar
+
+Bu dersler, [Nitya Narasimhan](https://twitter.com/nitya) ve [Dmitry Soshnikov](https://twitter.com/shwars) tarafından ❤️ ile yazılmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/05-relational-databases/README.md b/translations/tr/2-Working-With-Data/05-relational-databases/README.md
new file mode 100644
index 00000000..e3221213
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/05-relational-databases/README.md
@@ -0,0 +1,195 @@
+
+# Verilerle Çalışmak: İlişkisel Veritabanları
+
+| ](../../sketchnotes/05-RelationalData.png)|
+|:---:|
+| Verilerle Çalışmak: İlişkisel Veritabanları - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Muhtemelen geçmişte bilgi depolamak için bir elektronik tablo kullanmışsınızdır. Satır ve sütunlardan oluşan bir yapınız vardı; satırlar bilgiyi (veya veriyi) içerirken, sütunlar bu bilgiyi tanımlıyordu (bazen buna meta veri denir). İlişkisel bir veritabanı, tablolardaki sütunlar ve satırlar prensibine dayanır ve bilgiyi birden fazla tabloya yaymanıza olanak tanır. Bu, daha karmaşık verilerle çalışmanıza, tekrarı önlemenize ve verileri keşfetme şeklinizde esneklik sağlamanıza olanak tanır. Haydi, ilişkisel veritabanı kavramlarını keşfedelim.
+
+## [Ders Öncesi Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/8)
+
+## Her Şey Tablolarla Başlar
+
+Bir ilişkisel veritabanının temelinde tablolar bulunur. Tıpkı bir elektronik tabloda olduğu gibi, bir tablo sütunlar ve satırlardan oluşan bir koleksiyondur. Satır, çalışmak istediğimiz veriyi veya bilgiyi içerir, örneğin bir şehrin adı ya da yağış miktarı. Sütunlar ise depoladıkları veriyi tanımlar.
+
+Şehirler hakkında bilgi depolamak için bir tablo oluşturarak keşfimize başlayalım. Şehirlerin adını ve ülkesini içeren bir tablo oluşturabiliriz. Bu tablo şu şekilde görünebilir:
+
+| Şehir | Ülke |
+| -------- | ------------- |
+| Tokyo | Japonya |
+| Atlanta | Amerika Birleşik Devletleri |
+| Auckland | Yeni Zelanda |
+
+Dikkat edin, **şehir**, **ülke** ve **nüfus** sütun adları depolanan veriyi tanımlar ve her satır bir şehir hakkında bilgi içerir.
+
+## Tek Tablo Yaklaşımının Eksiklikleri
+
+Yukarıdaki tablo size oldukça tanıdık gelebilir. Gelişmekte olan veritabanımıza yıllık yağış miktarını (milimetre cinsinden) ekleyerek biraz daha veri ekleyelim. 2018, 2019 ve 2020 yıllarına odaklanalım. Tokyo için ekleyecek olursak, tablo şu şekilde görünebilir:
+
+| Şehir | Ülke | Yıl | Miktar |
+| ------ | ------- | ---- | ------ |
+| Tokyo | Japonya | 2020 | 1690 |
+| Tokyo | Japonya | 2019 | 1874 |
+| Tokyo | Japonya | 2018 | 1445 |
+
+Tablomuzda ne fark ettiniz? Şehrin adı ve ülkesini tekrar tekrar kopyaladığımızı fark etmiş olabilirsiniz. Bu, oldukça fazla depolama alanı kaplayabilir ve büyük ölçüde gereksizdir. Sonuçta, Tokyo'nun ilgilendiğimiz tek bir adı var.
+
+Tamam, başka bir şey deneyelim. Her yıl için yeni sütunlar ekleyelim:
+
+| Şehir | Ülke | 2018 | 2019 | 2020 |
+| -------- | ------------- | ---- | ---- | ---- |
+| Tokyo | Japonya | 1445 | 1874 | 1690 |
+| Atlanta | Amerika Birleşik Devletleri | 1779 | 1111 | 1683 |
+| Auckland | Yeni Zelanda | 1386 | 942 | 1176 |
+
+Bu, satır tekrarını önlerken başka zorluklar ekliyor. Her yeni yıl için tablomuzun yapısını değiştirmemiz gerekecek. Ayrıca, verilerimiz büyüdükçe yılları sütun olarak tutmak, değerleri geri almak ve hesaplamak için işleri zorlaştıracaktır.
+
+Bu nedenle birden fazla tabloya ve ilişkilere ihtiyacımız var. Verilerimizi bölerek tekrarı önleyebilir ve verilerle çalışma şeklimizde daha fazla esneklik sağlayabiliriz.
+
+## İlişkilerin Kavramları
+
+Verilerimize geri dönelim ve nasıl böleceğimizi belirleyelim. Şehirlerimizin adını ve ülkesini depolamak istediğimizi biliyoruz, bu nedenle bu bilgiler muhtemelen bir tabloda en iyi şekilde saklanır.
+
+| Şehir | Ülke |
+| -------- | ------------- |
+| Tokyo | Japonya |
+| Atlanta | Amerika Birleşik Devletleri |
+| Auckland | Yeni Zelanda |
+
+Ancak bir sonraki tabloyu oluşturmadan önce, her şehri nasıl referans alacağımızı belirlememiz gerekiyor. Bir tür tanımlayıcıya, kimliğe veya (teknik veritabanı terimleriyle) bir birincil anahtara ihtiyacımız var. Birincil anahtar, bir tablodaki belirli bir satırı tanımlamak için kullanılan bir değerdir. Bu, bir değerin kendisine dayalı olabilir (örneğin, şehrin adını kullanabiliriz), ancak neredeyse her zaman bir sayı veya başka bir tanımlayıcı olmalıdır. Kimliğin asla değişmemesini isteriz, çünkü bu ilişkiyi bozabilir. Çoğu durumda, birincil anahtar veya kimlik otomatik olarak oluşturulan bir sayı olacaktır.
+
+> ✅ Birincil anahtar genellikle PK olarak kısaltılır.
+
+### şehirler
+
+| şehir_id | Şehir | Ülke |
+| -------- | -------- | ------------- |
+| 1 | Tokyo | Japonya |
+| 2 | Atlanta | Amerika Birleşik Devletleri |
+| 3 | Auckland | Yeni Zelanda |
+
+> ✅ Bu derste "id" ve "birincil anahtar" terimlerini birbirinin yerine kullandığımızı fark edeceksiniz. Buradaki kavramlar, daha sonra keşfedeceğiniz DataFrame'ler için de geçerlidir. DataFrame'ler "birincil anahtar" terminolojisini kullanmaz, ancak benzer şekilde davrandıklarını fark edeceksiniz.
+
+Şehirler tablomuzu oluşturduğumuza göre, yağış miktarını saklayalım. Şehirle ilgili tam bilgiyi kopyalamak yerine, kimliği kullanabiliriz. Ayrıca, yeni oluşturulan tablonun da bir *id* sütununa sahip olduğundan emin olmalıyız, çünkü tüm tabloların bir kimlik veya birincil anahtarı olmalıdır.
+
+### yağış
+
+| yağış_id | şehir_id | Yıl | Miktar |
+| -------- | -------- | ---- | ------ |
+| 1 | 1 | 2018 | 1445 |
+| 2 | 1 | 2019 | 1874 |
+| 3 | 1 | 2020 | 1690 |
+| 4 | 2 | 2018 | 1779 |
+| 5 | 2 | 2019 | 1111 |
+| 6 | 2 | 2020 | 1683 |
+| 7 | 3 | 2018 | 1386 |
+| 8 | 3 | 2019 | 942 |
+| 9 | 3 | 2020 | 1176 |
+
+Yeni oluşturulan **yağış** tablosundaki **şehir_id** sütununa dikkat edin. Bu sütun, **şehirler** tablosundaki kimliklere referans veren değerler içerir. Teknik ilişkisel veri terimleriyle, buna **yabancı anahtar** denir; başka bir tablodan bir birincil anahtardır. Bunu bir referans veya işaretçi olarak düşünebilirsiniz. **şehir_id** 1, Tokyo'yu referans alır.
+
+> [!NOTE] Yabancı anahtar genellikle FK olarak kısaltılır.
+
+## Veriyi Geri Getirme
+
+Verilerimizi iki tabloya ayırdıktan sonra, bunları nasıl geri getireceğimizi merak ediyor olabilirsiniz. MySQL, SQL Server veya Oracle gibi bir ilişkisel veritabanı kullanıyorsak, Yapılandırılmış Sorgu Dili veya SQL adlı bir dil kullanabiliriz. SQL (bazen "sequel" olarak telaffuz edilir), ilişkisel bir veritabanında veri almak ve değiştirmek için kullanılan standart bir dildir.
+
+Veriyi almak için `SELECT` komutunu kullanırsınız. Temel olarak, görmek istediğiniz sütunları **seçer** ve bunların bulunduğu tabloyu **belirtirsiniz**. Sadece şehirlerin adlarını görüntülemek istiyorsanız, şu sorguyu kullanabilirsiniz:
+
+```sql
+SELECT city
+FROM cities;
+
+-- Output:
+-- Tokyo
+-- Atlanta
+-- Auckland
+```
+
+`SELECT`, listelemek istediğiniz sütunları, `FROM` ise bu sütunların bulunduğu tabloları belirtir.
+
+> [NOTE] SQL sözdizimi büyük/küçük harf duyarlı değildir, yani `select` ve `SELECT` aynı anlama gelir. Ancak, kullandığınız veritabanı türüne bağlı olarak sütunlar ve tablolar büyük/küçük harf duyarlı olabilir. Bu nedenle, programlamada her şeyi büyük/küçük harf duyarlıymış gibi ele almak en iyi uygulamadır. SQL sorguları yazarken, anahtar kelimeleri tamamen büyük harflerle yazmak yaygın bir konvansiyondur.
+
+Yukarıdaki sorgu tüm şehirleri görüntüler. Sadece Yeni Zelanda'daki şehirleri görüntülemek istediğimizi hayal edelim. Bir tür filtreye ihtiyacımız var. SQL'deki anahtar kelime `WHERE`, yani "bir şey doğru olduğunda"dır.
+
+```sql
+SELECT city
+FROM cities
+WHERE country = 'New Zealand';
+
+-- Output:
+-- Auckland
+```
+
+## Veriyi Birleştirme
+
+Şimdiye kadar veriyi tek bir tablodan aldık. Şimdi **şehirler** ve **yağış** tablolarındaki verileri bir araya getirmek istiyoruz. Bu, onları *birleştirerek* yapılır. İki tablo arasında bir dikiş oluşturur ve her tablodan bir sütundaki değerleri eşleştirirsiniz.
+
+Örneğimizde, **yağış** tablosundaki **şehir_id** sütununu, **şehirler** tablosundaki **şehir_id** sütunuyla eşleştireceğiz. Bu, yağış değerini ilgili şehriyle eşleştirecektir. Yapacağımız birleştirme türü, *iç birleştirme* olarak adlandırılır, yani diğer tablodan hiçbir şeyle eşleşmeyen satırlar görüntülenmez. Bizim durumumuzda her şehirde yağış verisi var, bu yüzden her şey görüntülenecek.
+
+Tüm şehirler için 2019 yılı yağış miktarını alalım.
+
+Bunu adım adım yapacağız. İlk adım, **şehir_id** sütunlarını belirterek verileri birleştirmektir.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+```
+
+Birleştirmek istediğimiz iki sütunu ve tabloları **şehir_id** üzerinden birleştirmek istediğimizi vurguladık. Şimdi sadece 2019 yılını filtrelemek için `WHERE` ifadesini ekleyebiliriz.
+
+```sql
+SELECT cities.city
+ rainfall.amount
+FROM cities
+ INNER JOIN rainfall ON cities.city_id = rainfall.city_id
+WHERE rainfall.year = 2019
+
+-- Output
+
+-- city | amount
+-- -------- | ------
+-- Tokyo | 1874
+-- Atlanta | 1111
+-- Auckland | 942
+```
+
+## Özet
+
+İlişkisel veritabanları, bilgiyi birden fazla tabloya bölmek ve ardından görüntüleme ve analiz için bir araya getirmek üzerine kuruludur. Bu, hesaplamalar yapmak ve verileri manipüle etmek için yüksek bir esneklik sağlar. İlişkisel bir veritabanının temel kavramlarını ve iki tablo arasında bir birleştirme yapmayı gördünüz.
+
+## 🚀 Meydan Okuma
+
+İnternette birçok ilişkisel veritabanı mevcuttur. Yukarıda öğrendiğiniz becerileri kullanarak verileri keşfedebilirsiniz.
+
+## Ders Sonrası Testi
+
+## [Ders Sonrası Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/9)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+SQL ve ilişkisel veritabanı kavramlarını keşfetmeye devam etmeniz için [Microsoft Learn](https://docs.microsoft.com/learn?WT.mc_id=academic-77958-bethanycheum) üzerinde çeşitli kaynaklar mevcuttur:
+
+- [İlişkisel veri kavramlarını açıklayın](https://docs.microsoft.com//learn/modules/describe-concepts-of-relational-data?WT.mc_id=academic-77958-bethanycheum)
+- [Transact-SQL ile Sorgulamaya Başlayın](https://docs.microsoft.com//learn/paths/get-started-querying-with-transact-sql?WT.mc_id=academic-77958-bethanycheum) (Transact-SQL, SQL'in bir versiyonudur)
+- [Microsoft Learn'deki SQL içeriği](https://docs.microsoft.com/learn/browse/?products=azure-sql-database%2Csql-server&expanded=azure&WT.mc_id=academic-77958-bethanycheum)
+
+## Ödev
+
+[Ödev Başlığı](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan herhangi bir yanlış anlama veya yanlış yorumlama durumunda sorumluluk kabul edilmez.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/05-relational-databases/assignment.md b/translations/tr/2-Working-With-Data/05-relational-databases/assignment.md
new file mode 100644
index 00000000..1266c9c1
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/05-relational-databases/assignment.md
@@ -0,0 +1,73 @@
+
+# Havaalanı verilerini görüntüleme
+
+Size havaalanları hakkında bilgi içeren [SQLite](https://sqlite.org/index.html) üzerine kurulmuş bir [veritabanı](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) sağlandı. Şema aşağıda gösterilmektedir. Farklı şehirlerin havaalanları hakkında bilgi görüntülemek için [Visual Studio Code](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) içindeki [SQLite eklentisini](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) kullanacaksınız.
+
+## Talimatlar
+
+Görevle başlamak için birkaç adımı tamamlamanız gerekecek. Biraz araç kurmanız ve örnek veritabanını indirmeniz gerekecek.
+
+### Sisteminizi kurun
+
+Veritabanı ile etkileşimde bulunmak için Visual Studio Code ve SQLite eklentisini kullanabilirsiniz.
+
+1. [code.visualstudio.com](https://code.visualstudio.com?WT.mc_id=academic-77958-bethanycheum) adresine gidin ve Visual Studio Code'u yüklemek için talimatları izleyin
+1. [SQLite eklentisini](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) Marketplace sayfasındaki talimatlara göre yükleyin
+
+### Veritabanını indirin ve açın
+
+Sonraki adımda veritabanını indirip açacaksınız.
+
+1. [GitHub'dan veritabanı dosyasını](https://raw.githubusercontent.com/Microsoft/Data-Science-For-Beginners/main/2-Working-With-Data/05-relational-databases/airports.db) indirin ve bir dizine kaydedin
+1. Visual Studio Code'u açın
+1. SQLite eklentisinde veritabanını açmak için **Ctl-Shift-P** (Mac'te **Cmd-Shift-P**) tuşlarına basın ve `SQLite: Open database` yazın
+1. **Choose database from file** seçeneğini seçin ve daha önce indirdiğiniz **airports.db** dosyasını açın
+1. Veritabanını açtıktan sonra (ekranda bir güncelleme görmeyeceksiniz), yeni bir sorgu penceresi oluşturmak için **Ctl-Shift-P** (Mac'te **Cmd-Shift-P**) tuşlarına basın ve `SQLite: New query` yazın
+
+Açıldıktan sonra, yeni sorgu penceresi veritabanına karşı SQL ifadeleri çalıştırmak için kullanılabilir. Veritabanına karşı sorguları çalıştırmak için **Ctl-Shift-Q** (Mac'te **Cmd-Shift-Q**) komutunu kullanabilirsiniz.
+
+> [!NOTE] SQLite eklentisi hakkında daha fazla bilgi için [dokümantasyonu](https://marketplace.visualstudio.com/items?itemName=alexcvzz.vscode-sqlite&WT.mc_id=academic-77958-bethanycheum) inceleyebilirsiniz.
+
+## Veritabanı şeması
+
+Bir veritabanının şeması, tablo tasarımı ve yapısıdır. **airports** veritabanı iki tabloya sahiptir: Birleşik Krallık ve İrlanda'daki şehirlerin listesini içeren `cities` ve tüm havaalanlarının listesini içeren `airports`. Bazı şehirlerde birden fazla havaalanı olabileceğinden, bilgiyi depolamak için iki tablo oluşturulmuştur. Bu alıştırmada, farklı şehirler için bilgi görüntülemek amacıyla birleştirmeler kullanacaksınız.
+
+| Şehirler |
+| ------------------ |
+| id (PK, integer) |
+| city (text) |
+| country (text) |
+
+| Havaalanları |
+| -------------------------------- |
+| id (PK, integer) |
+| name (text) |
+| code (text) |
+| city_id (**Şehirler** tablosundaki id'ye FK) |
+
+## Görev
+
+Aşağıdaki bilgileri döndüren sorgular oluşturun:
+
+1. `Cities` tablosundaki tüm şehir isimleri
+1. `Cities` tablosundaki İrlanda'daki tüm şehirler
+1. Şehir ve ülke bilgileriyle birlikte tüm havaalanı isimleri
+1. Londra, Birleşik Krallık'taki tüm havaalanları
+
+## Değerlendirme
+
+| Örnek Çalışma | Yeterli | Geliştirme Gerekiyor |
+| ------------- | ------- | -------------------- |
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/06-non-relational/README.md b/translations/tr/2-Working-With-Data/06-non-relational/README.md
new file mode 100644
index 00000000..01969563
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/06-non-relational/README.md
@@ -0,0 +1,158 @@
+
+# Veriyle Çalışmak: İlişkisel Olmayan Veri
+
+| ](../../sketchnotes/06-NoSQL.png)|
+|:---:|
+|NoSQL Veriyle Çalışmak - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/10)
+
+Veri, yalnızca ilişkisel veritabanlarıyla sınırlı değildir. Bu ders, ilişkisel olmayan veriye odaklanacak ve elektronik tablolar ile NoSQL'in temel bilgilerini kapsayacaktır.
+
+## Elektronik Tablolar
+
+Elektronik tablolar, veri depolamak ve keşfetmek için popüler bir yöntemdir çünkü kurulum ve başlama süreci daha az çaba gerektirir. Bu derste bir elektronik tablonun temel bileşenlerini, formülleri ve işlevleri öğreneceksiniz. Örnekler Microsoft Excel ile gösterilecek, ancak diğer elektronik tablo yazılımlarıyla karşılaştırıldığında çoğu bölüm ve konu benzer isimlere ve adımlara sahip olacaktır.
+
+
+
+Bir elektronik tablo bir dosyadır ve bir bilgisayar, cihaz veya bulut tabanlı dosya sisteminde erişilebilir olacaktır. Yazılımın kendisi tarayıcı tabanlı olabilir veya bir bilgisayara yüklenmesi gereken bir uygulama ya da bir uygulama olarak indirilebilir. Excel'de bu dosyalar **çalışma kitapları** olarak tanımlanır ve bu terim dersin geri kalanında kullanılacaktır.
+
+Bir çalışma kitabı, bir veya daha fazla **çalışma sayfası** içerir ve her çalışma sayfası sekmelerle etiketlenir. Bir çalışma sayfasında, gerçek veriyi içeren **hücreler** adı verilen dikdörtgenler bulunur. Bir hücre, bir satır ve sütunun kesişimidir; sütunlar alfabetik karakterlerle, satırlar ise sayısal olarak etiketlenir. Bazı elektronik tablolar, bir hücredeki veriyi açıklamak için ilk birkaç satırda başlıklar içerebilir.
+
+Excel çalışma kitabının bu temel unsurlarıyla, [Microsoft Templates](https://templates.office.com/) sitesinden bir envantere odaklanan bir örnek kullanarak bir elektronik tablonun bazı ek bölümlerini inceleyeceğiz.
+
+### Envanter Yönetimi
+
+"InventoryExample" adlı elektronik tablo dosyası, envanterdeki öğelerin biçimlendirilmiş bir elektronik tablosudur ve "Inventory List", "Inventory Pick List" ve "Bin Lookup" olarak etiketlenmiş üç çalışma sayfası içerir. Inventory List çalışma sayfasının 4. satırı, başlık sütunundaki her hücrenin değerini açıklayan başlıktır.
+
+
+
+Bazı durumlarda, bir hücre diğer hücrelerin değerlerine bağlı olarak kendi değerini oluşturur. Inventory List elektronik tablosu, envanterindeki her öğenin maliyetini takip eder, ancak envanterdeki her şeyin toplam değerini bilmemiz gerekirse ne yaparız? [**Formüller**](https://support.microsoft.com/en-us/office/overview-of-formulas-34519a4e-1e8d-4f4b-84d4-d642c4f63263), hücre verileri üzerinde işlem yapar ve bu örnekte envanterin maliyetini hesaplamak için kullanılır. Bu elektronik tablo, Inventory Value sütununda bir formül kullanarak her öğenin değerini, QTY başlığı altındaki miktarı ve COST başlığı altındaki maliyetleri çarparak hesaplar. Bir hücreyi çift tıklayarak veya vurgulayarak formülü görebilirsiniz. Formüllerin bir eşittir işaretiyle başladığını ve ardından hesaplama veya işlemin geldiğini fark edeceksiniz.
+
+
+
+Envanter Değeri sütunundaki tüm değerleri toplamak için başka bir formül kullanabiliriz. Bu, her hücreyi ekleyerek toplamı oluşturmakla hesaplanabilir, ancak bu zahmetli bir iş olabilir. Excel, hücre değerleri üzerinde hesaplama yapmak için önceden tanımlanmış formüller olan [**işlevler**](https://support.microsoft.com/en-us/office/sum-function-043e1c7d-7726-4e80-8f32-07b23e057f89) içerir. İşlevler, bu hesaplamaları yapmak için gereken değerler olan argümanlara ihtiyaç duyar. İşlevler birden fazla argüman gerektiriyorsa, bunların belirli bir sırayla listelenmesi gerekir, aksi takdirde işlev doğru değeri hesaplamayabilir. Bu örnek, SUM işlevini kullanır ve B3 satırında listelenen toplamı oluşturmak için Inventory Value değerlerini argüman olarak kullanır.
+
+## NoSQL
+
+NoSQL, ilişkisel olmayan veriyi depolamanın farklı yollarını kapsayan bir şemsiye terimdir ve "non-SQL", "non-relational" veya "not only SQL" olarak yorumlanabilir. Bu tür veritabanı sistemleri 4 türe ayrılabilir.
+
+
+> Kaynak: [Michał Białecki Blog](https://www.michalbialecki.com/2018/03/18/azure-cosmos-db-key-value-database-cloud/)
+
+[Anahtar-değer](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#keyvalue-data-stores) veritabanları, bir değerle ilişkilendirilmiş benzersiz bir tanımlayıcı olan benzersiz anahtarları eşleştirir. Bu çiftler, uygun bir karma işleviyle bir [hash tablosu](https://www.hackerearth.com/practice/data-structures/hash-tables/basics-of-hash-tables/tutorial/) kullanılarak depolanır.
+
+
+> Kaynak: [Microsoft](https://docs.microsoft.com/en-us/azure/cosmos-db/graph/graph-introduction#graph-database-by-example)
+
+[Grafik](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#graph-data-stores) veritabanları, verilerdeki ilişkileri tanımlar ve düğümler ve kenarların bir koleksiyonu olarak temsil edilir. Bir düğüm, gerçek dünyada var olan bir varlığı, örneğin bir öğrenci veya banka ekstresini temsil eder. Kenarlar, iki varlık arasındaki ilişkiyi temsil eder. Her düğüm ve kenar, her bir düğüm ve kenar hakkında ek bilgi sağlayan özelliklere sahiptir.
+
+
+
+[Sütunlu](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#columnar-data-stores) veri depoları, verileri sütunlar ve satırlar halinde düzenler, ancak her sütun, bir sütun ailesi olarak adlandırılan gruplara ayrılır. Bir sütun altındaki tüm veriler ilişkilidir ve bir birim olarak alınabilir ve değiştirilebilir.
+
+### Azure Cosmos DB ile Belge Veri Depoları
+
+[Belge](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data#document-data-stores) veri depoları, bir anahtar-değer veri deposu kavramını temel alır ve bir dizi alan ve nesne değerinden oluşur. Bu bölüm, Cosmos DB emülatörü ile belge veritabanlarını keşfedecektir.
+
+Bir Cosmos DB veritabanı, "Not Only SQL" tanımına uyar; Cosmos DB'nin belge veritabanı, veriyi sorgulamak için SQL'e dayanır. SQL dilinin temel bilgilerini kapsayan [önceki ders](../05-relational-databases/README.md) burada bir belge veritabanına bazı aynı sorguları uygulamamıza olanak tanır. Cosmos DB Emülatörü'nü kullanacağız, bu emülatör bir bilgisayarda yerel olarak bir belge veritabanı oluşturup keşfetmemize olanak tanır. Emülatör hakkında daha fazla bilgi için [burayı okuyun](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21).
+
+Bir belge, alanlar ve nesne değerlerinden oluşan bir koleksiyondur; alanlar, nesne değerinin neyi temsil ettiğini açıklar. Aşağıda bir belge örneği bulunmaktadır.
+
+```json
+{
+ "firstname": "Eva",
+ "age": 44,
+ "id": "8c74a315-aebf-4a16-bb38-2430a9896ce5",
+ "_rid": "bHwDAPQz8s0BAAAAAAAAAA==",
+ "_self": "dbs/bHwDAA==/colls/bHwDAPQz8s0=/docs/bHwDAPQz8s0BAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f95-010a691e01d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630544034
+}
+```
+
+Bu belgedeki ilgi alanları: `firstname`, `id` ve `age`. Cosmos DB tarafından oluşturulan alt çizgili alanlar geri kalanıdır.
+
+#### Cosmos DB Emülatörü ile Veriyi Keşfetmek
+
+Emülatörü [Windows için buradan](https://aka.ms/cosmosdb-emulator) indirip yükleyebilirsiniz. macOS ve Linux için emülatörü çalıştırma seçenekleri hakkında bilgi almak için [bu belgeleri](https://docs.microsoft.com/en-us/azure/cosmos-db/local-emulator?tabs=ssl-netstd21#run-on-linux-macos) inceleyin.
+
+Emülatör bir tarayıcı penceresi açar, burada Explorer görünümü belgeleri keşfetmenize olanak tanır.
+
+
+
+Eğer takip ediyorsanız, "Start with Sample" seçeneğine tıklayarak SampleDB adlı örnek bir veritabanı oluşturabilirsiniz. SampleDB'yi genişletmek için oka tıklarsanız `Persons` adlı bir konteyner bulacaksınız; bir konteyner, içindeki belgeler olan öğelerin bir koleksiyonunu tutar. `Items` altında dört bireysel belgeyi keşfedebilirsiniz.
+
+
+
+#### Cosmos DB Emülatörü ile Belge Verisini Sorgulamak
+
+Yeni SQL Query düğmesine (soldan ikinci düğme) tıklayarak örnek veriyi sorgulayabiliriz.
+
+`SELECT * FROM c` konteynerdeki tüm belgeleri döndürür. Bir where clause ekleyelim ve 40 yaşından küçük olanları bulalım.
+
+`SELECT * FROM c where c.age < 40`
+
+
+
+Sorgu iki belge döndürür, her belgenin yaş değerinin 40'tan küçük olduğunu fark edin.
+
+#### JSON ve Belgeler
+
+Eğer JavaScript Object Notation (JSON) ile aşina iseniz, belgelerin JSON'a benzediğini fark edeceksiniz. Bu dizinde daha fazla veri içeren bir `PersonsData.json` dosyası bulunmaktadır; bu dosyayı Emülatördeki Persons konteynerine `Upload Item` düğmesiyle yükleyebilirsiniz.
+
+Çoğu durumda, JSON veri döndüren API'ler doğrudan belge veritabanlarına aktarılıp depolanabilir. Aşağıda başka bir belge bulunmaktadır; bu belge, Twitter API kullanılarak Microsoft Twitter hesabından alınan tweetleri temsil eder ve ardından Cosmos DB'ye eklenmiştir.
+
+```json
+{
+ "created_at": "2021-08-31T19:03:01.000Z",
+ "id": "1432780985872142341",
+ "text": "Blank slate. Like this tweet if you’ve ever painted in Microsoft Paint before. https://t.co/cFeEs8eOPK",
+ "_rid": "dhAmAIUsA4oHAAAAAAAAAA==",
+ "_self": "dbs/dhAmAA==/colls/dhAmAIUsA4o=/docs/dhAmAIUsA4oHAAAAAAAAAA==/",
+ "_etag": "\"00000000-0000-0000-9f84-a0958ad901d7\"",
+ "_attachments": "attachments/",
+ "_ts": 1630537000
+```
+
+Bu belgedeki ilgi alanları: `created_at`, `id` ve `text`.
+
+## 🚀 Zorluk
+
+Bir `TwitterData.json` dosyası bulunmaktadır; bu dosyayı SampleDB veritabanına yükleyebilirsiniz. Bunun ayrı bir konteynere eklenmesi önerilir. Bu şu şekilde yapılabilir:
+
+1. Sağ üstteki yeni konteyner düğmesine tıklayın
+1. Mevcut veritabanını (SampleDB) seçin, konteyner için bir id oluşturun
+1. Bölüm anahtarını `/id` olarak ayarlayın
+1. Tamam'a tıklayın (bu görünümdeki diğer bilgileri görmezden gelebilirsiniz çünkü bu, makinenizde yerel olarak çalışan küçük bir veri kümesidir)
+1. Yeni konteynerinizi açın ve Twitter Data dosyasını `Upload Item` düğmesiyle yükleyin
+
+`text` alanında Microsoft bulunan belgeleri bulmak için birkaç select sorgusu çalıştırmayı deneyin. İpucu: [LIKE anahtar kelimesini](https://docs.microsoft.com/en-us/azure/cosmos-db/sql/sql-query-keywords#using-like-with-the--wildcard-character) kullanmayı deneyin.
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/11)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+- Bu derste ele alınmayan elektronik tabloya eklenen bazı ek biçimlendirme ve özellikler bulunmaktadır. Excel hakkında daha fazla bilgi edinmek istiyorsanız, Microsoft'un [geniş bir belge ve video kütüphanesi](https://support.microsoft.com/excel) bulunmaktadır.
+
+- İlişkisel olmayan verinin farklı türlerindeki özellikleri detaylandıran bu mimari belgeleri inceleyin: [İlişkisel Olmayan Veri ve NoSQL](https://docs.microsoft.com/en-us/azure/architecture/data-guide/big-data/non-relational-data)
+
+- Cosmos DB, bu derste bahsedilen farklı NoSQL türlerini de depolayabilen bulut tabanlı bir ilişkisel olmayan veritabanıdır. Bu türler hakkında daha fazla bilgi edinmek için [Cosmos DB Microsoft Learn Modülü](https://docs.microsoft.com/en-us/learn/paths/work-with-nosql-data-in-azure-cosmos-db/) inceleyin.
+
+## Ödev
+
+[Soda Profits](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/06-non-relational/assignment.md b/translations/tr/2-Working-With-Data/06-non-relational/assignment.md
new file mode 100644
index 00000000..85b9b02d
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/06-non-relational/assignment.md
@@ -0,0 +1,33 @@
+
+# Soda Karları
+
+## Talimatlar
+
+[Coca Cola Co hesap tablosu](../../../../2-Working-With-Data/06-non-relational/CocaColaCo.xlsx) bazı hesaplamaları eksik. Göreviniz:
+
+1. FY '15, '16, '17 ve '18 için Brüt Karları hesaplamak
+ - Brüt Kar = Net İşletme Gelirleri - Satılan Malların Maliyeti
+1. Tüm brüt karların ortalamasını hesaplayın. Bunu bir fonksiyonla yapmaya çalışın.
+ - Ortalama = Brüt karların toplamı, mali yılların sayısına bölünmesi (10)
+ - [AVERAGE fonksiyonu](https://support.microsoft.com/en-us/office/average-function-047bac88-d466-426c-a32b-8f33eb960cf6) hakkında dokümantasyon
+1. Bu bir Excel dosyasıdır, ancak herhangi bir hesap tablosu platformunda düzenlenebilir olmalıdır.
+
+[Veri kaynağı kredisi Yiyi Wang](https://www.kaggle.com/yiyiwang0826/cocacola-excel)
+
+## Değerlendirme Ölçütü
+
+Örnek | Yeterli | Geliştirme Gerekiyor
+--- | --- | --- |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/07-python/README.md b/translations/tr/2-Working-With-Data/07-python/README.md
new file mode 100644
index 00000000..720938d8
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/07-python/README.md
@@ -0,0 +1,290 @@
+
+# Veriyle Çalışmak: Python ve Pandas Kütüphanesi
+
+|  ](../../sketchnotes/07-WorkWithPython.png) |
+| :-------------------------------------------------------------------------------------------------------: |
+| Python ile Çalışmak - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[](https://youtu.be/dZjWOGbsN4Y)
+
+Veritabanları, verileri depolamak ve sorgulamak için oldukça verimli yollar sunarken, veri işleme konusunda en esnek yöntem, kendi programınızı yazarak veriyi manipüle etmektir. Çoğu durumda, bir veritabanı sorgusu yapmak daha etkili bir yol olabilir. Ancak, daha karmaşık veri işleme gerektiğinde, SQL kullanarak bunu kolayca yapmak mümkün olmayabilir.
+Veri işleme herhangi bir programlama diliyle yapılabilir, ancak bazı diller veriyle çalışmak açısından daha üst seviyedir. Veri bilimciler genellikle aşağıdaki dillerden birini tercih eder:
+
+* **[Python](https://www.python.org/)**, genel amaçlı bir programlama dili olup, basitliği nedeniyle genellikle yeni başlayanlar için en iyi seçeneklerden biri olarak kabul edilir. Python, ZIP arşivinden veri çıkarmak veya bir resmi gri tonlamaya dönüştürmek gibi birçok pratik problemi çözmenize yardımcı olabilecek ek kütüphanelere sahiptir. Python, veri biliminin yanı sıra web geliştirme için de sıkça kullanılır.
+* **[R](https://www.r-project.org/)**, istatistiksel veri işleme amacıyla geliştirilmiş geleneksel bir araçtır. Büyük bir kütüphane deposu (CRAN) içerir ve veri işleme için iyi bir seçimdir. Ancak, R genel amaçlı bir programlama dili değildir ve veri bilimi alanı dışında nadiren kullanılır.
+* **[Julia](https://julialang.org/)**, özellikle veri bilimi için geliştirilmiş bir başka dildir. Python'dan daha iyi performans sunmayı amaçlar ve bilimsel deneyler için harika bir araçtır.
+
+Bu derste, basit veri işleme için Python kullanmaya odaklanacağız. Dil hakkında temel bir aşinalık varsayacağız. Python hakkında daha derinlemesine bilgi almak isterseniz, aşağıdaki kaynaklara göz atabilirsiniz:
+
+* [Learn Python in a Fun Way with Turtle Graphics and Fractals](https://github.com/shwars/pycourse) - Python Programlama için GitHub tabanlı hızlı giriş kursu
+* [Take your First Steps with Python](https://docs.microsoft.com/en-us/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum) üzerinde öğrenme yolu
+
+Veriler birçok farklı biçimde olabilir. Bu derste, üç veri biçimini ele alacağız - **tablo verisi**, **metin** ve **görseller**.
+
+Tüm ilgili kütüphanelerin tam bir genel görünümünü vermek yerine, birkaç veri işleme örneğine odaklanacağız. Bu, size mümkün olanın ana fikrini verecek ve ihtiyaç duyduğunuzda problemlerinize çözüm bulabileceğiniz yerleri anlamanızı sağlayacaktır.
+
+> **En faydalı tavsiye**. Bilmediğiniz bir veri işlemi gerçekleştirmek istediğinizde, internetten arama yapmayı deneyin. [Stackoverflow](https://stackoverflow.com/) genellikle birçok tipik görev için Python'da faydalı kod örnekleri içerir.
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/12)
+
+## Tablo Verisi ve DataFrame'ler
+
+Tablo verisiyle daha önce ilişkisel veritabanları hakkında konuşurken tanıştınız. Çok fazla veri olduğunda ve bu veriler birçok farklı bağlantılı tabloda yer aldığında, SQL kullanmak kesinlikle mantıklıdır. Ancak, elimizde bir veri tablosu olduğunda ve bu veri hakkında **anlayış** veya **içgörüler** elde etmek istediğimizde, örneğin dağılım, değerler arasındaki korelasyon gibi, SQL kullanmak her zaman yeterli olmayabilir. Veri biliminde, orijinal verinin bazı dönüşümlerini gerçekleştirmek ve ardından görselleştirme yapmak gerektiği birçok durum vardır. Bu adımların her ikisi de Python kullanılarak kolayca yapılabilir.
+
+Python'da tablo verisiyle çalışmanıza yardımcı olabilecek en kullanışlı iki kütüphane şunlardır:
+* **[Pandas](https://pandas.pydata.org/)**, **DataFrame** adı verilen yapıları manipüle etmenize olanak tanır. DataFrame'ler ilişkisel tablolara benzer. Adlandırılmış sütunlara sahip olabilir ve satır, sütun ve genel olarak DataFrame'ler üzerinde çeşitli işlemler gerçekleştirebilirsiniz.
+* **[Numpy](https://numpy.org/)**, **tensor** yani çok boyutlu **array**'lerle çalışmak için bir kütüphanedir. Array'ler aynı temel türde değerlere sahiptir ve DataFrame'lerden daha basittir, ancak daha fazla matematiksel işlem sunar ve daha az yük oluşturur.
+
+Bilmeniz gereken birkaç başka kütüphane de vardır:
+* **[Matplotlib](https://matplotlib.org/)**, veri görselleştirme ve grafik çizimi için kullanılan bir kütüphanedir
+* **[SciPy](https://www.scipy.org/)**, bazı ek bilimsel fonksiyonlar içeren bir kütüphanedir. Olasılık ve istatistik hakkında konuşurken bu kütüphaneyle zaten karşılaşmıştık.
+
+Python programınızın başında bu kütüphaneleri içe aktarmak için genellikle şu kod parçasını kullanırsınız:
+```python
+import numpy as np
+import pandas as pd
+import matplotlib.pyplot as plt
+from scipy import ... # you need to specify exact sub-packages that you need
+```
+
+Pandas birkaç temel kavram etrafında şekillenmiştir.
+
+### Series
+
+**Series**, bir liste veya numpy array'e benzer bir değerler dizisidir. Ana fark, serilerin ayrıca bir **index**'e sahip olmasıdır ve seriler üzerinde işlem yaparken (örneğin, toplama), indeks dikkate alınır. İndeks, bir liste veya array'den bir seri oluştururken varsayılan olarak kullanılan basit bir tamsayı satır numarası kadar basit olabilir veya tarih aralığı gibi karmaşık bir yapıya sahip olabilir.
+
+> **Not**: Eşlik eden notebook'ta [`notebook.ipynb`](notebook.ipynb) bazı giriş niteliğinde Pandas kodu bulunmaktadır. Burada yalnızca bazı örnekleri özetliyoruz ve tam notebook'u incelemeniz kesinlikle önerilir.
+
+Bir örneği ele alalım: dondurma satışlarımızı analiz etmek istiyoruz. Belirli bir zaman dilimi için satış rakamlarının (her gün satılan ürün sayısı) bir serisini oluşturalım:
+
+```python
+start_date = "Jan 1, 2020"
+end_date = "Mar 31, 2020"
+idx = pd.date_range(start_date,end_date)
+print(f"Length of index is {len(idx)}")
+items_sold = pd.Series(np.random.randint(25,50,size=len(idx)),index=idx)
+items_sold.plot()
+```
+
+
+Şimdi, her hafta arkadaşlarımız için bir parti düzenlediğimizi ve parti için fazladan 10 paket dondurma aldığımızı varsayalım. Bunu göstermek için haftalık olarak indekslenmiş başka bir seri oluşturabiliriz:
+```python
+additional_items = pd.Series(10,index=pd.date_range(start_date,end_date,freq="W"))
+```
+İki seriyi topladığımızda toplam sayıyı elde ederiz:
+```python
+total_items = items_sold.add(additional_items,fill_value=0)
+total_items.plot()
+```
+
+
+> **Not**: Basit `total_items+additional_items` sözdizimini kullanmıyoruz. Eğer kullansaydık, sonuçta birçok `NaN` (*Not a Number*) değeri alırdık. Bunun nedeni, `additional_items` serisindeki bazı indeks noktaları için eksik değerler olmasıdır ve `NaN` ile herhangi bir şeyi toplamak `NaN` sonucunu verir. Bu nedenle toplama sırasında `fill_value` parametresini belirtmemiz gerekir.
+
+Zaman serileriyle, farklı zaman aralıklarıyla seriyi yeniden örnekleyebiliriz. Örneğin, aylık ortalama satış hacmini hesaplamak istediğimizi varsayalım. Aşağıdaki kodu kullanabiliriz:
+```python
+monthly = total_items.resample("1M").mean()
+ax = monthly.plot(kind='bar')
+```
+
+
+### DataFrame
+
+Bir DataFrame, aynı indekse sahip bir dizi serinin koleksiyonudur. Birkaç seriyi bir araya getirerek bir DataFrame oluşturabiliriz:
+```python
+a = pd.Series(range(1,10))
+b = pd.Series(["I","like","to","play","games","and","will","not","change"],index=range(0,9))
+df = pd.DataFrame([a,b])
+```
+Bu, aşağıdaki gibi yatay bir tablo oluşturacaktır:
+| | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
+| --- | --- | ---- | --- | --- | ------ | --- | ------ | ---- | ---- |
+| 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
+| 1 | I | like | to | use | Python | and | Pandas | very | much |
+
+Serileri sütun olarak kullanabilir ve sütun adlarını sözlük kullanarak belirtebiliriz:
+```python
+df = pd.DataFrame({ 'A' : a, 'B' : b })
+```
+Bu bize aşağıdaki gibi bir tablo verecektir:
+
+| | A | B |
+| --- | --- | ------ |
+| 0 | 1 | I |
+| 1 | 2 | like |
+| 2 | 3 | to |
+| 3 | 4 | use |
+| 4 | 5 | Python |
+| 5 | 6 | and |
+| 6 | 7 | Pandas |
+| 7 | 8 | very |
+| 8 | 9 | much |
+
+**Not**: Önceki tabloyu transpoze ederek de bu tablo düzenini elde edebiliriz, örneğin
+```python
+df = pd.DataFrame([a,b]).T..rename(columns={ 0 : 'A', 1 : 'B' })
+```
+Burada `.T`, DataFrame'i transpoze etme işlemini, yani satırları ve sütunları değiştirme işlemini ifade eder ve `rename` işlemi, sütun adlarını önceki örneğe uyacak şekilde yeniden adlandırmamıza olanak tanır.
+
+DataFrame'ler üzerinde gerçekleştirebileceğimiz en önemli işlemlerden bazıları şunlardır:
+
+**Sütun seçimi**. Bireysel sütunları `df['A']` yazarak seçebiliriz - bu işlem bir Seri döndürür. Ayrıca, başka bir DataFrame'e alt bir sütun kümesi seçmek için `df[['B','A']]` yazabiliriz - bu başka bir DataFrame döndürür.
+
+**Belirli satırları filtreleme**. Örneğin, yalnızca `A` sütunu 5'ten büyük olan satırları bırakmak için `df[df['A']>5]` yazabiliriz.
+
+> **Not**: Filtreleme şu şekilde çalışır. `df['A']<5` ifadesi, orijinal serinin her bir öğesi için ifadenin `True` veya `False` olduğunu belirten bir boolean serisi döndürür. Boolean serisi indeks olarak kullanıldığında, DataFrame'deki satırların bir alt kümesini döndürür. Bu nedenle, rastgele Python boolean ifadelerini kullanmak mümkün değildir, örneğin `df[df['A']>5 and df['A']<7]` yazmak yanlış olur. Bunun yerine, boolean seriler üzerinde özel `&` işlemini kullanarak `df[(df['A']>5) & (df['A']<7)]` yazmalısınız (*parantezler burada önemlidir*).
+
+**Yeni hesaplanabilir sütunlar oluşturma**. DataFrame'imiz için yeni hesaplanabilir sütunlar oluşturmak, aşağıdaki gibi sezgisel ifadeler kullanarak kolaydır:
+```python
+df['DivA'] = df['A']-df['A'].mean()
+```
+Bu örnek, A'nın ortalama değerinden sapmasını hesaplar. Burada aslında bir seri hesaplıyoruz ve ardından bu seriyi sol taraftaki sütuna atayarak yeni bir sütun oluşturuyoruz. Bu nedenle, serilerle uyumlu olmayan işlemleri kullanamayız, örneğin aşağıdaki kod yanlıştır:
+```python
+# Wrong code -> df['ADescr'] = "Low" if df['A'] < 5 else "Hi"
+df['LenB'] = len(df['B']) # <- Wrong result
+```
+Son örnek, sözdizimsel olarak doğru olsa da, yanlış bir sonuç verir çünkü serinin `B` uzunluğunu sütundaki tüm değerlere atar, bireysel öğelerin uzunluğunu değil.
+
+Bu tür karmaşık ifadeleri hesaplamamız gerektiğinde, `apply` fonksiyonunu kullanabiliriz. Son örnek şu şekilde yazılabilir:
+```python
+df['LenB'] = df['B'].apply(lambda x : len(x))
+# or
+df['LenB'] = df['B'].apply(len)
+```
+
+Yukarıdaki işlemlerden sonra, aşağıdaki DataFrame'e sahip olacağız:
+
+| | A | B | DivA | LenB |
+| --- | --- | ------ | ---- | ---- |
+| 0 | 1 | I | -4.0 | 1 |
+| 1 | 2 | like | -3.0 | 4 |
+| 2 | 3 | to | -2.0 | 2 |
+| 3 | 4 | use | -1.0 | 3 |
+| 4 | 5 | Python | 0.0 | 6 |
+| 5 | 6 | and | 1.0 | 3 |
+| 6 | 7 | Pandas | 2.0 | 6 |
+| 7 | 8 | very | 3.0 | 4 |
+| 8 | 9 | much | 4.0 | 4 |
+
+**Satırları numaralara göre seçmek** `iloc` yapısını kullanarak yapılabilir. Örneğin, DataFrame'den ilk 5 satırı seçmek için:
+```python
+df.iloc[:5]
+```
+
+**Gruplama**, genellikle Excel'deki *pivot tablolar* benzeri bir sonuç elde etmek için kullanılır. Örneğin, `LenB`'nin her bir değeri için `A` sütununun ortalama değerini hesaplamak istediğimizi varsayalım. DataFrame'i `LenB`'ye göre gruplandırabilir ve `mean` çağırabiliriz:
+```python
+df.groupby(by='LenB').mean()
+```
+Eğer gruptaki öğelerin ortalamasını ve sayısını hesaplamamız gerekiyorsa, daha karmaşık bir `aggregate` fonksiyonu kullanabiliriz:
+```python
+df.groupby(by='LenB') \
+ .aggregate({ 'DivA' : len, 'A' : lambda x: x.mean() }) \
+ .rename(columns={ 'DivA' : 'Count', 'A' : 'Mean'})
+```
+Bu bize aşağıdaki tabloyu verir:
+
+| LenB | Count | Mean |
+| ---- | ----- | -------- |
+| 1 | 1 | 1.000000 |
+| 2 | 1 | 3.000000 |
+| 3 | 2 | 5.000000 |
+| 4 | 3 | 6.333333 |
+| 6 | 2 | 6.000000 |
+
+### Veri Alma
+Python nesnelerinden Series ve DataFrame oluşturmanın ne kadar kolay olduğunu gördük. Ancak, veriler genellikle bir metin dosyası veya bir Excel tablosu şeklinde gelir. Neyse ki, Pandas bize diskten veri yüklemek için basit bir yol sunar. Örneğin, bir CSV dosyasını okumak şu kadar basittir:
+```python
+df = pd.read_csv('file.csv')
+```
+"Challenge" bölümünde, dış web sitelerinden veri çekmek de dahil olmak üzere, veri yükleme ile ilgili daha fazla örnek göreceğiz.
+
+### Yazdırma ve Görselleştirme
+
+Bir Veri Bilimcisi genellikle veriyi keşfetmek zorundadır, bu yüzden veriyi görselleştirebilmek önemlidir. DataFrame büyük olduğunda, çoğu zaman her şeyin doğru yapıldığından emin olmak için sadece ilk birkaç satırı yazdırmak isteriz. Bu, `df.head()` çağrılarak yapılabilir. Eğer bunu Jupyter Notebook'ta çalıştırıyorsanız, DataFrame'i güzel bir tablo formunda yazdıracaktır.
+
+Ayrıca bazı sütunları görselleştirmek için `plot` fonksiyonunun kullanımını da gördük. `plot` birçok görev için çok kullanışlıdır ve `kind=` parametresi aracılığıyla birçok farklı grafik türünü destekler. Ancak, daha karmaşık bir şey çizmek için her zaman ham `matplotlib` kütüphanesini kullanabilirsiniz. Veri görselleştirmeyi ayrı derslerde detaylı olarak ele alacağız.
+
+Bu genel bakış, Pandas'ın en önemli kavramlarını kapsar, ancak kütüphane oldukça zengindir ve onunla yapabileceklerinizin sınırı yoktur! Şimdi bu bilgiyi belirli bir problemi çözmek için uygulayalım.
+
+## 🚀 Challenge 1: COVID Yayılımını Analiz Etmek
+
+Odaklanacağımız ilk problem, COVID-19'un salgın yayılımını modellemek olacak. Bunu yapmak için, [Johns Hopkins Üniversitesi](https://jhu.edu/) [Sistem Bilimi ve Mühendisliği Merkezi](https://systems.jhu.edu/) (CSSE) tarafından sağlanan, farklı ülkelerdeki enfekte bireylerin sayısına ilişkin verileri kullanacağız. Veri seti [bu GitHub deposunda](https://github.com/CSSEGISandData/COVID-19) mevcuttur.
+
+Verilerle nasıl başa çıkılacağını göstermek istediğimiz için, [`notebook-covidspread.ipynb`](notebook-covidspread.ipynb) dosyasını açmanızı ve baştan sona okumanızı öneririz. Ayrıca hücreleri çalıştırabilir ve sonunda sizin için bıraktığımız bazı zorlukları deneyebilirsiniz.
+
+
+
+> Jupyter Notebook'ta kod çalıştırmayı bilmiyorsanız, [bu makaleye](https://soshnikov.com/education/how-to-execute-notebooks-from-github/) göz atabilirsiniz.
+
+## Yapılandırılmamış Verilerle Çalışmak
+
+Veriler genellikle tablo formunda gelse de, bazı durumlarda daha az yapılandırılmış verilerle, örneğin metin veya görüntülerle çalışmamız gerekebilir. Bu durumda, yukarıda gördüğümüz veri işleme tekniklerini uygulamak için bir şekilde yapılandırılmış veriler **çıkarmamız** gerekir. İşte birkaç örnek:
+
+* Metinden anahtar kelimeleri çıkarmak ve bu anahtar kelimelerin ne sıklıkta göründüğünü görmek
+* Görüntüdeki nesneler hakkında bilgi çıkarmak için sinir ağlarını kullanmak
+* Video kamera akışındaki insanların duyguları hakkında bilgi almak
+
+## 🚀 Challenge 2: COVID Makalelerini Analiz Etmek
+
+Bu zorlukta, COVID pandemisi konusuna devam edeceğiz ve konuyla ilgili bilimsel makaleleri işlemeye odaklanacağız. [CORD-19 Veri Seti](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge), meta veriler ve özetlerle birlikte (ve yaklaşık yarısı için tam metin de sağlanmış) 7000'den fazla (yazım sırasında) COVID makalesi içermektedir.
+
+Bu veri setini kullanarak [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health/?WT.mc_id=academic-77958-bethanycheum) bilişsel hizmetini kullanarak bir analiz yapmanın tam bir örneği [bu blog yazısında](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) açıklanmıştır. Bu analizin basitleştirilmiş bir versiyonunu tartışacağız.
+
+> **NOT**: Bu depo kapsamında veri setinin bir kopyasını sağlamıyoruz. Öncelikle [Kaggle'daki bu veri setinden](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) [`metadata.csv`](https://www.kaggle.com/allen-institute-for-ai/CORD-19-research-challenge?select=metadata.csv) dosyasını indirmeniz gerekebilir. Kaggle'a kayıt olmanız gerekebilir. Ayrıca, veri setini [buradan](https://ai2-semanticscholar-cord-19.s3-us-west-2.amazonaws.com/historical_releases.html) kayıt olmadan indirebilirsiniz, ancak bu, meta veri dosyasına ek olarak tüm tam metinleri içerecektir.
+
+[`notebook-papers.ipynb`](notebook-papers.ipynb) dosyasını açın ve baştan sona okuyun. Ayrıca hücreleri çalıştırabilir ve sonunda sizin için bıraktığımız bazı zorlukları deneyebilirsiniz.
+
+
+
+## Görüntü Verilerini İşlemek
+
+Son zamanlarda, görüntüleri anlamamızı sağlayan çok güçlü yapay zeka modelleri geliştirilmiştir. Önceden eğitilmiş sinir ağları veya bulut hizmetleri kullanılarak çözülebilecek birçok görev vardır. Bazı örnekler şunlardır:
+
+* **Görüntü Sınıflandırma**, görüntüyü önceden tanımlanmış sınıflardan birine kategorize etmenize yardımcı olabilir. [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) gibi hizmetleri kullanarak kendi görüntü sınıflandırıcılarınızı kolayca eğitebilirsiniz.
+* **Nesne Tespiti**, görüntüdeki farklı nesneleri tespit etmek için kullanılabilir. [Computer Vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) gibi hizmetler birçok yaygın nesneyi tespit edebilir ve [Custom Vision](https://azure.microsoft.com/services/cognitive-services/custom-vision-service/?WT.mc_id=academic-77958-bethanycheum) modeli, ilgi çekici bazı özel nesneleri tespit etmek için eğitilebilir.
+* **Yüz Tespiti**, yaş, cinsiyet ve duygu tespiti dahil. Bu, [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) aracılığıyla yapılabilir.
+
+Tüm bu bulut hizmetleri [Python SDK'ları](https://docs.microsoft.com/samples/azure-samples/cognitive-services-python-sdk-samples/cognitive-services-python-sdk-samples/?WT.mc_id=academic-77958-bethanycheum) kullanılarak çağrılabilir ve bu nedenle veri keşif iş akışınıza kolayca entegre edilebilir.
+
+İşte Görüntü veri kaynaklarından veri keşfetmeye dair bazı örnekler:
+* [Kodlama Yapmadan Veri Bilimi Nasıl Öğrenilir](https://soshnikov.com/azure/how-to-learn-data-science-without-coding/) blog yazısında, Instagram fotoğraflarını keşfederek, bir fotoğrafın daha fazla beğeni almasını sağlayan unsurları anlamaya çalışıyoruz. Önce [computer vision](https://azure.microsoft.com/services/cognitive-services/computer-vision/?WT.mc_id=academic-77958-bethanycheum) kullanarak fotoğraflardan mümkün olduğunca fazla bilgi çıkarıyoruz ve ardından [Azure Machine Learning AutoML](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml/?WT.mc_id=academic-77958-bethanycheum) kullanarak yorumlanabilir bir model oluşturuyoruz.
+* [Facial Studies Workshop](https://github.com/CloudAdvocacy/FaceStudies) çalışmasında, etkinliklerden alınan fotoğraflardaki insanların duygularını çıkarmak için [Face API](https://azure.microsoft.com/services/cognitive-services/face/?WT.mc_id=academic-77958-bethanycheum) kullanıyoruz ve insanları neyin mutlu ettiğini anlamaya çalışıyoruz.
+
+## Sonuç
+
+Yapılandırılmış veya yapılandırılmamış verileriniz olsun, Python kullanarak veri işleme ve anlama ile ilgili tüm adımları gerçekleştirebilirsiniz. Muhtemelen veri işleme için en esnek yöntemdir ve bu nedenle veri bilimcilerinin çoğu Python'u birincil araçları olarak kullanır. Veri bilimi yolculuğunuzda ciddiyseniz, Python'u derinlemesine öğrenmek muhtemelen iyi bir fikirdir!
+
+## [Ders sonrası sınav](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/13)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+**Kitaplar**
+* [Wes McKinney. Python for Data Analysis: Data Wrangling with Pandas, NumPy, and IPython](https://www.amazon.com/gp/product/1491957662)
+
+**Çevrimiçi Kaynaklar**
+* Resmi [10 dakikada Pandas](https://pandas.pydata.org/pandas-docs/stable/user_guide/10min.html) eğitimi
+* [Pandas Görselleştirme Belgeleri](https://pandas.pydata.org/pandas-docs/stable/user_guide/visualization.html)
+
+**Python Öğrenmek**
+* [Turtle Graphics ve Fraktallar ile Eğlenceli Bir Şekilde Python Öğrenin](https://github.com/shwars/pycourse)
+* [Python ile İlk Adımlarınızı Atın](https://docs.microsoft.com/learn/paths/python-first-steps/?WT.mc_id=academic-77958-bethanycheum) [Microsoft Learn](http://learn.microsoft.com/?WT.mc_id=academic-77958-bethanycheum) üzerinde Öğrenme Yolu
+
+## Ödev
+
+[Yukarıdaki zorluklar için daha ayrıntılı bir veri çalışması yapın](assignment.md)
+
+## Katkılar
+
+Bu ders [Dmitry Soshnikov](http://soshnikov.com) tarafından ♥️ ile yazılmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/07-python/assignment.md b/translations/tr/2-Working-With-Data/07-python/assignment.md
new file mode 100644
index 00000000..8afadcd0
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/07-python/assignment.md
@@ -0,0 +1,37 @@
+
+# Python'da Veri İşleme Ödevi
+
+Bu ödevde, zorluklarımız sırasında geliştirmeye başladığımız kodu detaylandırmanızı isteyeceğiz. Ödev iki bölümden oluşmaktadır:
+
+## COVID-19 Yayılım Modelleme
+
+ - [ ] Karşılaştırma yapmak için 5-6 farklı ülkenin *R* grafiklerini tek bir grafikte veya yan yana birkaç grafikte çizin.
+ - [ ] Ölüm ve iyileşme sayılarının enfekte vaka sayılarıyla nasıl ilişkilendiğini inceleyin.
+ - [ ] Tipik bir hastalığın ne kadar sürdüğünü, enfeksiyon oranı ve ölüm oranını görsel olarak ilişkilendirerek ve bazı anormallikleri arayarak bulun. Bunu anlamak için farklı ülkeleri incelemeniz gerekebilir.
+ - [ ] Ölüm oranını hesaplayın ve zamanla nasıl değiştiğini analiz edin. *Hesaplamaları yapmadan önce, hastalığın gün cinsinden süresini dikkate alarak bir zaman serisini kaydırmanız gerekebilir.*
+
+## COVID-19 Makaleleri Analizi
+
+- [ ] Farklı ilaçların eş-zamanlılık matrisini oluşturun ve hangi ilaçların sıklıkla birlikte geçtiğini (örneğin, bir özet içinde bahsedildiğini) görün. İlaçlar ve teşhisler için eş-zamanlılık matrisi oluşturma kodunu değiştirebilirsiniz.
+- [ ] Bu matrisi bir ısı haritası kullanarak görselleştirin.
+- [ ] Ekstra bir hedef olarak, ilaçların eş-zamanlılığını [chord diagram](https://en.wikipedia.org/wiki/Chord_diagram) kullanarak görselleştirin. [Bu kütüphane](https://pypi.org/project/chord/) bir chord diagram çizmenize yardımcı olabilir.
+- [ ] Başka bir ekstra hedef olarak, farklı ilaçların dozajlarını (örneğin, *günde 400mg klorokin alın* ifadesindeki **400mg**) düzenli ifadeler kullanarak çıkarın ve farklı ilaçlar için farklı dozajları gösteren bir veri çerçevesi oluşturun. **Not**: İlaç isminin yakın metinsel çevresindeki sayısal değerleri dikkate alın.
+
+## Değerlendirme Kriterleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Tüm görevler tamamlanmış, grafiksel olarak gösterilmiş ve açıklanmış, en az bir ekstra hedef gerçekleştirilmiş | 5'ten fazla görev tamamlanmış, ekstra hedeflere girişilmemiş veya sonuçlar net değil | 5'ten az (ancak 3'ten fazla) görev tamamlanmış, görselleştirmeler noktayı açıklamada yetersiz
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/08-data-preparation/README.md b/translations/tr/2-Working-With-Data/08-data-preparation/README.md
new file mode 100644
index 00000000..be368d4e
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/08-data-preparation/README.md
@@ -0,0 +1,346 @@
+
+# Veriyle Çalışmak: Veri Hazırlama
+
+| ](../../sketchnotes/08-DataPreparation.png)|
+|:---:|
+|Veri Hazırlama - _[@nitya](https://twitter.com/nitya) tarafından hazırlanan Sketchnote_ |
+
+## [Ders Öncesi Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/14)
+
+Ham veriler, kaynağına bağlı olarak analiz ve modelleme sırasında zorluklara neden olabilecek bazı tutarsızlıklar içerebilir. Başka bir deyişle, bu veriler "kirli" olarak sınıflandırılabilir ve temizlenmesi gerekir. Bu ders, eksik, yanlış veya eksik verilerle ilgili zorlukları ele almak için verileri temizleme ve dönüştürme tekniklerine odaklanır. Bu derste ele alınan konular, Python ve Pandas kütüphanesini kullanacak ve bu dizindeki [notebook'ta gösterilecektir](notebook.ipynb).
+
+## Veriyi Temizlemenin Önemi
+
+- **Kullanım ve yeniden kullanım kolaylığı**: Veriler düzgün bir şekilde organize edildiğinde ve normalize edildiğinde, arama yapmak, kullanmak ve başkalarıyla paylaşmak daha kolay hale gelir.
+
+- **Tutarlılık**: Veri bilimi genellikle birden fazla veri kümesiyle çalışmayı gerektirir; farklı kaynaklardan gelen veri kümelerinin birleştirilmesi gerekebilir. Her bir veri kümesinin ortak bir standardizasyona sahip olması, tüm veri kümeleri birleştirildiğinde verilerin hala kullanışlı olmasını sağlar.
+
+- **Model doğruluğu**: Temizlenmiş veriler, bu verilere dayanan modellerin doğruluğunu artırır.
+
+## Yaygın Temizleme Amaçları ve Stratejileri
+
+- **Bir veri kümesini keşfetmek**: [Daha sonraki bir derste](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/4-Data-Science-Lifecycle/15-analyzing) ele alınan veri keşfi, temizlenmesi gereken verileri belirlemenize yardımcı olabilir. Bir veri kümesindeki değerleri görsel olarak gözlemlemek, geri kalanının nasıl görüneceği konusunda beklentiler oluşturabilir veya çözülebilecek sorunlar hakkında fikir verebilir. Keşif, temel sorgulama, görselleştirme ve örnekleme içerebilir.
+
+- **Biçimlendirme**: Verinin kaynağına bağlı olarak, sunumunda tutarsızlıklar olabilir. Bu, veri kümesinde görülen ancak görselleştirmelerde veya sorgu sonuçlarında doğru şekilde temsil edilmeyen değerlerin aranmasında ve temsil edilmesinde sorunlara neden olabilir. Yaygın biçimlendirme sorunları, boşlukları, tarihleri ve veri türlerini çözmeyi içerir. Biçimlendirme sorunlarını çözmek genellikle veriyi kullanan kişilere bağlıdır. Örneğin, tarihlerin ve sayıların nasıl sunulacağına dair standartlar ülkeden ülkeye farklılık gösterebilir.
+
+- **Çoğaltmalar**: Birden fazla kez görünen veriler yanlış sonuçlar üretebilir ve genellikle kaldırılmalıdır. Bu, iki veya daha fazla veri kümesi birleştirildiğinde yaygın bir durumdur. Ancak, birleştirilen veri kümelerindeki çoğaltmalar bazen ek bilgi sağlayabilir ve korunması gerekebilir.
+
+- **Eksik Veriler**: Eksik veriler, yanlışlıkların yanı sıra zayıf veya önyargılı sonuçlara neden olabilir. Bazen bu durum, verilerin yeniden yüklenmesi, eksik değerlerin Python gibi bir dilde hesaplama ve kodlama ile doldurulması veya sadece değerin ve ilgili verilerin kaldırılmasıyla çözülebilir. Verilerin neden eksik olduğu ve bu eksik değerleri çözmek için alınan önlemler, genellikle eksikliğin nasıl ve neden oluştuğuna bağlıdır.
+
+## DataFrame Bilgilerini Keşfetmek
+> **Öğrenme hedefi:** Bu alt bölümü tamamladığınızda, pandas DataFrame'lerinde saklanan veriler hakkında genel bilgi bulma konusunda rahat olmalısınız.
+
+Verilerinizi pandas'a yükledikten sonra, büyük olasılıkla bir DataFrame içinde olacaktır (detaylı bir genel bakış için önceki [derse](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/07-python#dataframe) bakın). Ancak, DataFrame'inizde 60.000 satır ve 400 sütun varsa, neyle çalıştığınızı anlamaya nereden başlayabilirsiniz? Neyse ki, [pandas](https://pandas.pydata.org/) bir DataFrame hakkında genel bilgileri hızlıca görmek için bazı kullanışlı araçlar sunar.
+
+Bu işlevselliği keşfetmek için Python scikit-learn kütüphanesini içe aktaracağız ve ikonik bir veri kümesi olan **Iris veri kümesini** kullanacağız.
+
+```python
+import pandas as pd
+from sklearn.datasets import load_iris
+
+iris = load_iris()
+iris_df = pd.DataFrame(data=iris['data'], columns=iris['feature_names'])
+```
+| |sepal length (cm)|sepal width (cm)|petal length (cm)|petal width (cm)|
+|----------------------------------------|-----------------|----------------|-----------------|----------------|
+|0 |5.1 |3.5 |1.4 |0.2 |
+|1 |4.9 |3.0 |1.4 |0.2 |
+|2 |4.7 |3.2 |1.3 |0.2 |
+|3 |4.6 |3.1 |1.5 |0.2 |
+|4 |5.0 |3.6 |1.4 |0.2 |
+
+- **DataFrame.info**: Başlangıç olarak, `info()` metodu, bir `DataFrame`'de bulunan içeriğin özetini yazdırmak için kullanılır. Bu veri kümesine bir göz atalım:
+```python
+iris_df.info()
+```
+```
+RangeIndex: 150 entries, 0 to 149
+Data columns (total 4 columns):
+ # Column Non-Null Count Dtype
+--- ------ -------------- -----
+ 0 sepal length (cm) 150 non-null float64
+ 1 sepal width (cm) 150 non-null float64
+ 2 petal length (cm) 150 non-null float64
+ 3 petal width (cm) 150 non-null float64
+dtypes: float64(4)
+memory usage: 4.8 KB
+```
+Buradan, *Iris* veri kümesinin dört sütunda 150 girişe sahip olduğunu ve eksik giriş olmadığını biliyoruz. Tüm veriler 64-bit kayan nokta sayıları olarak saklanmıştır.
+
+- **DataFrame.head()**: Daha sonra, `DataFrame`'in gerçek içeriğini kontrol etmek için `head()` metodunu kullanırız. `iris_df`'nin ilk birkaç satırına bakalım:
+```python
+iris_df.head()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+0 5.1 3.5 1.4 0.2
+1 4.9 3.0 1.4 0.2
+2 4.7 3.2 1.3 0.2
+3 4.6 3.1 1.5 0.2
+4 5.0 3.6 1.4 0.2
+```
+- **DataFrame.tail()**: Tersine, `DataFrame`'in son birkaç satırını kontrol etmek için `tail()` metodunu kullanırız:
+```python
+iris_df.tail()
+```
+```
+ sepal length (cm) sepal width (cm) petal length (cm) petal width (cm)
+145 6.7 3.0 5.2 2.3
+146 6.3 2.5 5.0 1.9
+147 6.5 3.0 5.2 2.0
+148 6.2 3.4 5.4 2.3
+149 5.9 3.0 5.1 1.8
+```
+> **Sonuç:** Bir DataFrame'deki bilgiler hakkında meta verileri veya ilk ve son birkaç değeri inceleyerek, üzerinde çalıştığınız verilerin boyutu, şekli ve içeriği hakkında hemen bir fikir edinebilirsiniz.
+
+## Eksik Verilerle Başa Çıkmak
+> **Öğrenme hedefi:** Bu alt bölümü tamamladığınızda, DataFrame'lerden eksik veya null değerleri nasıl değiştireceğinizi veya kaldıracağınızı öğrenmiş olacaksınız.
+
+Çoğu zaman, kullanmak istediğiniz (veya kullanmak zorunda olduğunuz) veri kümelerinde eksik değerler bulunur. Eksik verilerin nasıl ele alındığı, nihai analiziniz ve gerçek dünya sonuçlarınız üzerinde ince etkiler yaratabilir.
+
+Pandas, eksik değerleri iki şekilde ele alır. İlkini önceki bölümlerde görmüştünüz: `NaN` (Not a Number). Bu, aslında IEEE kayan nokta spesifikasyonunun bir parçası olan özel bir değerdir ve yalnızca eksik kayan nokta değerlerini belirtmek için kullanılır.
+
+Kayan nokta dışındaki eksik değerler için pandas, Python `None` nesnesini kullanır. İki farklı eksik değer türüyle karşılaşmanın kafa karıştırıcı görünebileceği doğru olsa da, bu tasarım seçiminin sağlam programlama nedenleri vardır ve pratikte bu yaklaşım, çoğu durum için iyi bir uzlaşma sağlar. Bununla birlikte, hem `None` hem de `NaN`, nasıl kullanılabilecekleri konusunda dikkat edilmesi gereken sınırlamalar taşır.
+
+`NaN` ve `None` hakkında daha fazla bilgi için [notebook'a](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/4-Data-Science-Lifecycle/15-analyzing/notebook.ipynb) göz atın!
+
+- **Null değerleri tespit etme**: `pandas`'ta, `isnull()` ve `notnull()` metotları, null verileri tespit etmek için birincil yöntemlerinizdir. Her ikisi de verileriniz üzerinde Boolean maskeleri döndürür. `NaN` değerleri için `numpy` kullanacağız:
+```python
+import numpy as np
+
+example1 = pd.Series([0, np.nan, '', None])
+example1.isnull()
+```
+```
+0 False
+1 True
+2 False
+3 True
+dtype: bool
+```
+Çıktıya yakından bakın. Sizi şaşırtan bir şey var mı? `0`, aritmetik olarak null olsa da, yine de geçerli bir tam sayıdır ve pandas bunu bu şekilde ele alır. `''` biraz daha inceliklidir. Bölüm 1'de boş bir dize değeri temsil etmek için kullanmış olsak da, yine de bir dize nesnesidir ve pandas açısından null bir temsil değildir.
+
+Şimdi, bu yöntemleri pratikte daha çok kullanacağınız şekilde kullanalım. Boolean maskeleri doğrudan bir ``Series`` veya ``DataFrame`` indeksi olarak kullanabilirsiniz, bu da eksik (veya mevcut) değerlerle çalışırken faydalı olabilir.
+
+> **Sonuç:** Hem `isnull()` hem de `notnull()` metotları, `DataFrame`'lerde benzer sonuçlar üretir: sonuçları ve bu sonuçların indeksini gösterir, bu da verilerinizle uğraşırken size büyük ölçüde yardımcı olur.
+
+- **Null değerleri kaldırma**: Eksik değerleri tanımlamanın ötesinde, pandas, `Series` ve `DataFrame`'lerden null değerleri kaldırmak için uygun bir yöntem sunar. (Özellikle büyük veri kümelerinde, eksik [NA] değerleri analizinizden kaldırmak, diğer yollarla uğraşmaktan genellikle daha tavsiye edilebilirdir.) Bunu uygulamada görmek için `example1`'e geri dönelim:
+```python
+example1 = example1.dropna()
+example1
+```
+```
+0 0
+2
+dtype: object
+```
+Bu, `example3[example3.notnull()]` çıktınıza benzemelidir. Buradaki fark, maskelenmiş değerlere indeksleme yapmak yerine, `dropna`'nın eksik değerleri `Series` `example1`'den kaldırmış olmasıdır.
+
+`DataFrame`'lerin iki boyutu olduğu için, veri kaldırma konusunda daha fazla seçenek sunar.
+
+```python
+example2 = pd.DataFrame([[1, np.nan, 7],
+ [2, 5, 8],
+ [np.nan, 6, 9]])
+example2
+```
+| | 0 | 1 | 2 |
+|------|---|---|---|
+|0 |1.0|NaN|7 |
+|1 |2.0|5.0|8 |
+|2 |NaN|6.0|9 |
+
+(Pandas'ın `NaN`'leri barındırmak için iki sütunu float'a yükselttiğini fark ettiniz mi?)
+
+Bir `DataFrame`'den tek bir değeri kaldıramazsınız, bu yüzden tam satırları veya sütunları kaldırmanız gerekir. Yaptığınız şeye bağlı olarak, birini veya diğerini yapmak isteyebilirsiniz ve bu nedenle pandas her ikisi için de seçenekler sunar. Veri biliminde sütunlar genellikle değişkenleri, satırlar ise gözlemleri temsil ettiğinden, veri satırlarını kaldırmanız daha olasıdır; `dropna()` için varsayılan ayar, herhangi bir null değer içeren tüm satırları kaldırmaktır:
+
+```python
+example2.dropna()
+```
+```
+ 0 1 2
+1 2.0 5.0 8
+```
+Gerekirse, sütunlardan NA değerlerini kaldırabilirsiniz. Bunu yapmak için `axis=1` kullanın:
+```python
+example2.dropna(axis='columns')
+```
+```
+ 2
+0 7
+1 8
+2 9
+```
+Bu, özellikle daha küçük veri kümelerinde, tutmak isteyebileceğiniz çok fazla veriyi kaldırabilir. Peki ya yalnızca birkaç veya tüm null değerleri içeren satırları veya sütunları kaldırmak isterseniz? `dropna`'da `how` ve `thresh` parametrelerini belirterek bu ayarları yapabilirsiniz.
+
+Varsayılan olarak, `how='any'` (kendiniz kontrol etmek veya metodun başka hangi parametrelere sahip olduğunu görmek isterseniz, bir kod hücresinde `example4.dropna?` çalıştırabilirsiniz). Alternatif olarak, yalnızca tüm null değerleri içeren satırları veya sütunları kaldırmak için `how='all'` belirtebilirsiniz. Bu işlemi görmek için örnek `DataFrame`'imizi genişletelim.
+
+```python
+example2[3] = np.nan
+example2
+```
+| |0 |1 |2 |3 |
+|------|---|---|---|---|
+|0 |1.0|NaN|7 |NaN|
+|1 |2.0|5.0|8 |NaN|
+|2 |NaN|6.0|9 |NaN|
+
+`thresh` parametresi size daha ince ayarlı bir kontrol sağlar: bir satır veya sütunun tutulması için sahip olması gereken *null olmayan* değer sayısını ayarlarsınız:
+```python
+example2.dropna(axis='rows', thresh=3)
+```
+```
+ 0 1 2 3
+1 2.0 5.0 8 NaN
+```
+Burada, yalnızca iki null olmayan değere sahip oldukları için ilk ve son satırlar kaldırılmıştır.
+
+- **Null değerleri doldurma**: Veri kümenize bağlı olarak, bazen null değerleri geçerli olanlarla doldurmak, onları kaldırmaktan daha mantıklı olabilir. Bunu yerinde yapmak için `isnull` kullanabilirsiniz, ancak bu zahmetli olabilir, özellikle doldurulacak çok sayıda değer varsa. Bu, veri biliminde çok yaygın bir görev olduğundan, pandas, eksik değerleri seçtiğiniz bir değerle değiştiren bir `Series` veya `DataFrame` kopyası döndüren `fillna` sağlar. Bunun pratikte nasıl çalıştığını görmek için başka bir örnek `Series` oluşturalım.
+```python
+example3 = pd.Series([1, np.nan, 2, None, 3], index=list('abcde'))
+example3
+```
+```
+a 1.0
+b NaN
+c 2.0
+d NaN
+e 3.0
+dtype: float64
+```
+Tüm null girişleri tek bir değerle, örneğin `0` ile doldurabilirsiniz:
+```python
+example3.fillna(0)
+```
+```
+a 1.0
+b 0.0
+c 2.0
+d 0.0
+e 3.0
+dtype: float64
+```
+Null değerleri **ileri doldurabilirsiniz**, yani son geçerli değeri bir null değeri doldurmak için kullanabilirsiniz:
+```python
+example3.fillna(method='ffill')
+```
+```
+a 1.0
+b 1.0
+c 2.0
+d 2.0
+e 3.0
+dtype: float64
+```
+Ayrıca, bir null değeri doldurmak için bir sonraki geçerli değeri geriye doğru yaymak için **geri doldurabilirsiniz**:
+```python
+example3.fillna(method='bfill')
+```
+```
+a 1.0
+b 2.0
+c 2.0
+d 3.0
+e 3.0
+dtype: float64
+```
+Tahmin edebileceğiniz gibi, bu `DataFrame`'ler için de aynı şekilde çalışır, ancak null değerleri doldurmak için bir `axis` belirtebilirsiniz. Daha önce kullanılan `example2`'yi tekrar ele alalım:
+```python
+example2.fillna(method='ffill', axis=1)
+```
+```
+ 0 1 2 3
+0 1.0 1.0 7.0 7.0
+1 2.0 5.0 8.0 8.0
+2 NaN 6.0 9.0 9.0
+```
+Dikkat edin, ileri doldurma için önceki bir değer mevcut olmadığında, null değer kalır.
+> **Önemli Nokta:** Veri setlerinizdeki eksik değerlerle başa çıkmanın birden fazla yolu vardır. Kullanacağınız spesifik strateji (eksik değerleri kaldırmak, değiştirmek ya da nasıl değiştireceğinizi belirlemek) o verinin özelliklerine bağlı olmalıdır. Veri setleriyle ne kadar çok çalışır ve etkileşimde bulunursanız, eksik değerlerle nasıl başa çıkacağınız konusunda o kadar iyi bir anlayış geliştireceksiniz.
+
+## Yinelenen Verilerin Kaldırılması
+
+> **Öğrenme Hedefi:** Bu alt bölümü tamamladığınızda, DataFrame'lerde yinelenen değerleri tanımlama ve kaldırma konusunda rahat olmalısınız.
+
+Eksik verilere ek olarak, gerçek dünya veri setlerinde sıkça yinelenen verilere rastlarsınız. Neyse ki, `pandas` yinelenen girişleri tespit etmek ve kaldırmak için kolay bir yöntem sunar.
+
+- **Yinelenenleri Tanımlama: `duplicated`**: `pandas`'ta `duplicated` yöntemiyle yinelenen değerleri kolayca tespit edebilirsiniz. Bu yöntem, bir `DataFrame`'deki bir girişin daha önceki bir girişin yineleneni olup olmadığını belirten bir Boolean maske döndürür. Bunu uygulamalı olarak görmek için başka bir örnek `DataFrame` oluşturalım.
+```python
+example4 = pd.DataFrame({'letters': ['A','B'] * 2 + ['B'],
+ 'numbers': [1, 2, 1, 3, 3]})
+example4
+```
+| |letters|numbers|
+|------|-------|-------|
+|0 |A |1 |
+|1 |B |2 |
+|2 |A |1 |
+|3 |B |3 |
+|4 |B |3 |
+
+```python
+example4.duplicated()
+```
+```
+0 False
+1 False
+2 True
+3 False
+4 True
+dtype: bool
+```
+- **Yinelenenleri Kaldırma: `drop_duplicates`:** `duplicated` değerlerinin `False` olduğu verilerin bir kopyasını döndürür:
+```python
+example4.drop_duplicates()
+```
+```
+ letters numbers
+0 A 1
+1 B 2
+3 B 3
+```
+Hem `duplicated` hem de `drop_duplicates` varsayılan olarak tüm sütunları dikkate alır, ancak `DataFrame`'inizde yalnızca bir alt küme sütunları incelemelerini belirtebilirsiniz:
+```python
+example4.drop_duplicates(['letters'])
+```
+```
+letters numbers
+0 A 1
+1 B 2
+```
+
+> **Önemli Nokta:** Yinelenen verilerin kaldırılması, neredeyse her veri bilimi projesinin temel bir parçasıdır. Yinelenen veriler analiz sonuçlarınızı değiştirebilir ve size yanlış sonuçlar verebilir!
+
+
+## 🚀 Zorluk
+
+Tartışılan tüm materyaller [Jupyter Notebook](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/2-Working-With-Data/08-data-preparation/notebook.ipynb) olarak sağlanmıştır. Ayrıca, her bölümün sonunda egzersizler bulunmaktadır, bunları denemeyi unutmayın!
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/15)
+
+
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Verilerinizi analiz ve modelleme için hazırlamanın birçok yolu vardır ve verileri temizlemek, "uygulamalı" bir deneyim gerektiren önemli bir adımdır. Bu dersin kapsamadığı teknikleri keşfetmek için Kaggle'daki şu zorlukları deneyin:
+
+- [Veri Temizleme Zorluğu: Tarihleri Ayrıştırma](https://www.kaggle.com/rtatman/data-cleaning-challenge-parsing-dates/)
+
+- [Veri Temizleme Zorluğu: Verileri Ölçeklendirme ve Normalleştirme](https://www.kaggle.com/rtatman/data-cleaning-challenge-scale-and-normalize-data)
+
+
+## Ödev
+
+[Bir Formdan Verileri Değerlendirme](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/08-data-preparation/assignment.md b/translations/tr/2-Working-With-Data/08-data-preparation/assignment.md
new file mode 100644
index 00000000..d3c50820
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/08-data-preparation/assignment.md
@@ -0,0 +1,28 @@
+
+# Formdan Veri Değerlendirme
+
+Bir müşteri, müşteri tabanları hakkında temel veriler toplamak için [küçük bir form](../../../../2-Working-With-Data/08-data-preparation/index.html) test ediyor. Topladıkları verileri doğrulamanız için bulgularını size getirdiler. Formu incelemek için `index.html` sayfasını tarayıcıda açabilirsiniz.
+
+Size formdan alınan girişleri ve bazı temel görselleştirmeleri içeren bir [csv kayıt veri seti](../../../../data/form.csv) sağlandı. Müşteri, bazı görselleştirmelerin yanlış göründüğünü belirtti ancak bunları nasıl düzelteceğinden emin değil. Bunu [ödev defterinde](assignment.ipynb) keşfedebilirsiniz.
+
+## Talimatlar
+
+Bu dersteki teknikleri kullanarak formun doğru ve tutarlı bilgi toplamasını sağlamak için önerilerde bulunun.
+
+## Değerlendirme Ölçütü
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | --- |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/2-Working-With-Data/README.md b/translations/tr/2-Working-With-Data/README.md
new file mode 100644
index 00000000..5eac602e
--- /dev/null
+++ b/translations/tr/2-Working-With-Data/README.md
@@ -0,0 +1,31 @@
+
+# Verilerle Çalışmak
+
+
+> Fotoğraf: Alexander Sinn, Unsplash üzerinden
+
+Bu derslerde, verilerin nasıl yönetilebileceği, işlenebileceği ve uygulamalarda kullanılabileceği yolları öğreneceksiniz. İlişkisel ve ilişkisel olmayan veritabanlarını ve verilerin bu veritabanlarında nasıl saklanabileceğini keşfedeceksiniz. Verileri yönetmek için Python ile çalışmanın temellerini öğrenecek ve Python ile verileri yönetmek ve analiz etmek için kullanabileceğiniz birçok yöntemi keşfedeceksiniz.
+
+### Konular
+
+1. [İlişkisel veritabanları](05-relational-databases/README.md)
+2. [İlişkisel olmayan veritabanları](06-non-relational/README.md)
+3. [Python ile çalışmak](07-python/README.md)
+4. [Veri hazırlama](08-data-preparation/README.md)
+
+### Katkıda Bulunanlar
+
+Bu dersler ❤️ ile [Christopher Harrison](https://twitter.com/geektrainer), [Dmitry Soshnikov](https://twitter.com/shwars) ve [Jasmine Greenaway](https://twitter.com/paladique) tarafından yazılmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/09-visualization-quantities/README.md b/translations/tr/3-Data-Visualization/09-visualization-quantities/README.md
new file mode 100644
index 00000000..2d9490ac
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/09-visualization-quantities/README.md
@@ -0,0 +1,217 @@
+
+# Miktarları Görselleştirme
+
+| ](../../sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Miktarları Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Bu derste, miktar kavramı etrafında ilginç görselleştirmeler oluşturmayı öğrenmek için mevcut birçok Python kütüphanesinden birini nasıl kullanacağınızı keşfedeceksiniz. Minnesota kuşları hakkında temizlenmiş bir veri seti kullanarak, yerel vahşi yaşam hakkında birçok ilginç bilgi edinebilirsiniz.
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## Matplotlib ile kanat açıklığını gözlemleyin
+
+Hem basit hem de karmaşık grafikler ve çeşitli türlerde çizimler oluşturmak için mükemmel bir kütüphane olan [Matplotlib](https://matplotlib.org/stable/index.html) ile tanışın. Genel olarak, bu kütüphaneleri kullanarak veri görselleştirme süreci, hedeflemek istediğiniz veri çerçevesi bölümlerini belirlemeyi, gerekli dönüşümleri yapmayı, x ve y ekseni değerlerini atamayı, hangi tür grafiği göstereceğinize karar vermeyi ve ardından grafiği göstermeyi içerir. Matplotlib çok çeşitli görselleştirmeler sunar, ancak bu derste miktarları görselleştirmek için en uygun olanlara odaklanacağız: çizgi grafikleri, dağılım grafikleri ve çubuk grafikleri.
+
+> ✅ Verinizin yapısına ve anlatmak istediğiniz hikayeye en uygun grafiği kullanın.
+> - Zaman içindeki eğilimleri analiz etmek için: çizgi
+> - Değerleri karşılaştırmak için: çubuk, sütun, pasta, dağılım grafiği
+> - Parçaların bütüne nasıl bağlandığını göstermek için: pasta
+> - Verinin dağılımını göstermek için: dağılım grafiği, çubuk
+> - Eğilimleri göstermek için: çizgi, sütun
+> - Değerler arasındaki ilişkileri göstermek için: çizgi, dağılım grafiği, baloncuk
+
+Bir veri setiniz varsa ve belirli bir öğeden ne kadar bulunduğunu keşfetmeniz gerekiyorsa, ilk yapmanız gerekenlerden biri değerlerini incelemektir.
+
+✅ Matplotlib için çok iyi 'kopya kağıtları' [burada](https://matplotlib.org/cheatsheets/cheatsheets.pdf) mevcuttur.
+
+## Kuşların kanat açıklığı değerleriyle bir çizgi grafiği oluşturun
+
+Bu ders klasörünün kökündeki `notebook.ipynb` dosyasını açın ve bir hücre ekleyin.
+
+> Not: Veriler bu depo kökünde `/data` klasöründe saklanmaktadır.
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+Bu veri, metin ve sayılardan oluşan bir karışımdır:
+
+| | İsim | BilimselAd | Kategori | Takım | Aile | Cins | KorumaDurumu | MinUzunluk | MaxUzunluk | MinVücutKütlesi | MaxVücutKütlesi | MinKanatAçıklığı | MaxKanatAçıklığı |
+| ---: | :---------------------------- | :--------------------- | :-------------------- | :------------ | :-------- | :---------- | :------------------- | ----------: | ----------: | --------------: | --------------: | ---------------: | ---------------: |
+| 0 | Kara karınlı ıslık ördeği | Dendrocygna autumnalis | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Sarımsı ıslık ördeği | Dendrocygna bicolor | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Kar kazı | Anser caerulescens | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross'un kazı | Anser rossii | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Büyük beyaz alınlı kaz | Anser albifrons | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Bu ilginç kuşlar için maksimum kanat açıklığını görmek istediğinizi varsayalım. Bazı sayısal verileri temel bir çizgi grafiği kullanarak çizelim.
+
+```python
+wingspan = birds['MaxWingspan']
+wingspan.plot()
+```
+
+
+Hemen ne fark ediyorsunuz? En az bir aykırı değer var gibi görünüyor - bu oldukça büyük bir kanat açıklığı! 2300 santimetrelik bir kanat açıklığı 23 metreye eşittir - Minnesota'da Pterodaktiller mi dolaşıyor? Hadi bunu araştıralım.
+
+Bu aykırı değerleri bulmak için Excel'de hızlı bir sıralama yapabilirsiniz, ancak görselleştirme sürecine grafikten çalışarak devam edin.
+
+X eksenine hangi tür kuşların olduğunu göstermek için etiketler ekleyin:
+
+```
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.xticks(rotation=45)
+x = birds['Name']
+y = birds['MaxWingspan']
+
+plt.plot(x, y)
+
+plt.show()
+```
+
+
+Etiketlerin 45 derece döndürülmesine rağmen, okunamayacak kadar çok var. Farklı bir strateji deneyelim: yalnızca bu aykırı değerleri etiketleyin ve etiketleri grafiğin içine yerleştirin. Daha fazla etiketleme alanı yaratmak için bir dağılım grafiği kullanabilirsiniz:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ plt.plot(x, y, 'bo')
+ if birds['MaxWingspan'][i] > 500:
+ plt.text(x, y * (1 - 0.05), birds['Name'][i], fontsize=12)
+
+plt.show()
+```
+Burada ne oluyor? `tick_params` kullanarak alt etiketleri gizlediniz ve ardından kuş veri setiniz üzerinde bir döngü oluşturdunuz. Küçük yuvarlak mavi noktalarla (`bo`) grafiği çizerken, maksimum kanat açıklığı 500'ün üzerinde olan herhangi bir kuşu kontrol ettiniz ve öyleyse, noktanın yanına etiket olarak kuşun adını eklediniz. Etiketleri y ekseninde biraz kaydırdınız (`y * (1 - 0.05)`) ve kuş adını etiket olarak kullandınız.
+
+Ne keşfettiniz?
+
+
+## Verilerinizi filtreleyin
+
+Hem Kel Kartal hem de Bozkır Şahini, muhtemelen çok büyük kuşlar olsalar da, maksimum kanat açıklıklarına fazladan bir `0` eklenmiş gibi görünüyor. 25 metrelik bir kanat açıklığına sahip bir Kel Kartal ile karşılaşırsanız, lütfen bize bildirin! Hadi bu iki aykırı değeri içermeyen yeni bir veri çerçevesi oluşturalım:
+
+```python
+plt.title('Max Wingspan in Centimeters')
+plt.ylabel('Wingspan (CM)')
+plt.xlabel('Birds')
+plt.tick_params(axis='both',which='both',labelbottom=False,bottom=False)
+for i in range(len(birds)):
+ x = birds['Name'][i]
+ y = birds['MaxWingspan'][i]
+ if birds['Name'][i] not in ['Bald eagle', 'Prairie falcon']:
+ plt.plot(x, y, 'bo')
+plt.show()
+```
+
+Aykırı değerleri filtreleyerek, verileriniz artık daha tutarlı ve anlaşılır hale geldi.
+
+
+
+Artık en azından kanat açıklığı açısından daha temiz bir veri setine sahibiz, hadi bu kuşlar hakkında daha fazla şey keşfedelim.
+
+Çizgi ve dağılım grafikleri, veri değerleri ve dağılımları hakkında bilgi gösterebilir, ancak bu veri setinde yer alan değerler hakkında düşünmek istiyoruz. Miktarlarla ilgili şu soruları yanıtlamak için görselleştirmeler oluşturabilirsiniz:
+
+> Kaç kuş kategorisi var ve bunların sayıları nedir?
+> Kaç kuş nesli tükenmiş, tehlikede, nadir veya yaygın?
+> Linnaeus'un terminolojisine göre çeşitli cins ve takımlardan kaç tane var?
+## Çubuk grafiklerini keşfedin
+
+Çubuk grafikleri, verilerin gruplandırmalarını göstermeniz gerektiğinde pratiktir. Bu veri setinde hangi kuş kategorilerinin en yaygın olduğunu görmek için bir inceleme yapalım.
+
+Notebook dosyasında temel bir çubuk grafiği oluşturun.
+
+✅ Not, önceki bölümde belirlediğimiz iki aykırı kuşu filtreleyebilir, kanat açıklığındaki yazım hatasını düzeltebilir veya bu egzersizler kanat açıklığı değerlerine bağlı olmadığından onları bırakabilirsiniz.
+
+Bir çubuk grafiği oluşturmak istiyorsanız, odaklanmak istediğiniz verileri seçebilirsiniz. Çubuk grafikleri ham verilerden oluşturulabilir:
+
+```python
+birds.plot(x='Category',
+ kind='bar',
+ stacked=True,
+ title='Birds of Minnesota')
+
+```
+
+
+Ancak bu çubuk grafiği okunamaz çünkü çok fazla gruplandırılmamış veri var. Çizmek istediğiniz verileri seçmeniz gerekiyor, bu yüzden kuşların kategorilerine göre uzunluklarına bakalım.
+
+Verilerinizi yalnızca kuşların kategorisini içerecek şekilde filtreleyin.
+
+✅ Pandas'ı verileri yönetmek için kullanırken, Matplotlib'in grafikleri oluşturmasına izin verdiğinizi unutmayın.
+
+Birçok kategori olduğu için bu grafiği dikey olarak görüntüleyebilir ve tüm verileri hesaba katmak için yüksekliğini ayarlayabilirsiniz:
+
+```python
+category_count = birds.value_counts(birds['Category'].values, sort=True)
+plt.rcParams['figure.figsize'] = [6, 12]
+category_count.plot.barh()
+```
+
+
+Bu çubuk grafiği, her kategorideki kuş sayısının iyi bir görünümünü sunar. Bir bakışta, bu bölgedeki en büyük kuş sayısının Ördekler/Kazlar/Su Kuşları kategorisinde olduğunu görebilirsiniz. Minnesota '10.000 gölün ülkesi' olduğundan bu şaşırtıcı değil!
+
+✅ Bu veri setinde başka sayımlar deneyin. Sizi şaşırtan bir şey var mı?
+
+## Verileri karşılaştırma
+
+Yeni eksenler oluşturarak gruplandırılmış verilerin farklı karşılaştırmalarını deneyebilirsiniz. Bir kuşun kategorisine göre Maksimum Uzunluğunu karşılaştırmayı deneyin:
+
+```python
+maxlength = birds['MaxLength']
+plt.barh(y=birds['Category'], width=maxlength)
+plt.rcParams['figure.figsize'] = [6, 12]
+plt.show()
+```
+
+
+Burada şaşırtıcı bir şey yok: sinek kuşları, Pelikanlar veya Kazlarla karşılaştırıldığında en az Maksimum Uzunluğa sahiptir. Verilerin mantıklı olması güzel bir şey!
+
+Çubuk grafiklerini daha ilginç hale getirmek için verileri üst üste bindirebilirsiniz. Bir kuş kategorisindeki Minimum ve Maksimum Uzunluğu üst üste bindirelim:
+
+```python
+minLength = birds['MinLength']
+maxLength = birds['MaxLength']
+category = birds['Category']
+
+plt.barh(category, maxLength)
+plt.barh(category, minLength)
+
+plt.show()
+```
+Bu grafikte, Minimum Uzunluk ve Maksimum Uzunluk aralığını kuş kategorisine göre görebilirsiniz. Bu verilere dayanarak, kuş ne kadar büyükse, uzunluk aralığının o kadar geniş olduğunu güvenle söyleyebilirsiniz. Büyüleyici!
+
+
+
+## 🚀 Meydan Okuma
+
+Bu kuş veri seti, belirli bir ekosistemdeki farklı kuş türleri hakkında zengin bilgiler sunar. İnternette araştırma yapın ve başka kuş odaklı veri setleri bulabilir misiniz bir bakın. Bu kuşlar etrafında grafikler ve çizimler oluşturarak farkında olmadığınız gerçekleri keşfetmek için pratik yapın.
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bu ilk ders, Matplotlib kullanarak miktarları nasıl görselleştireceğiniz hakkında size bazı bilgiler verdi. Veri görselleştirme için veri setleriyle çalışmanın diğer yolları hakkında araştırma yapın. [Plotly](https://github.com/plotly/plotly.py) bu derslerde ele almayacağımız bir araçtır, bu yüzden neler sunabileceğine bir göz atın.
+## Ödev
+
+[Çizgiler, Dağılımlar ve Çubuklar](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan herhangi bir yanlış anlama veya yanlış yorumlama durumunda sorumluluk kabul edilmez.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/09-visualization-quantities/assignment.md b/translations/tr/3-Data-Visualization/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..715090d9
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Çizgiler, Dağılımlar ve Çubuklar
+
+## Talimatlar
+
+Bu derste, bu veri setiyle ilgili ilginç gerçekleri göstermek için çizgi grafikleri, dağılım grafikleri ve çubuk grafiklerle çalıştınız. Bu ödevde, belirli bir kuş türü hakkında bir gerçeği keşfetmek için veri setine daha derinlemesine dalın. Örneğin, Kar Kazları hakkında ortaya çıkarabileceğiniz tüm ilginç verileri görselleştiren bir defter oluşturun. Defterinizde bir hikaye anlatmak için yukarıda belirtilen üç grafiği kullanın.
+
+## Değerlendirme Kriterleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekli
+--- | --- | --- |
+İyi açıklamalar, sağlam bir hikaye anlatımı ve çekici grafiklerle sunulan bir defter | Defter bu unsurlardan birini eksik içeriyor | Defter bu unsurlardan ikisini eksik içeriyor
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/10-visualization-distributions/README.md b/translations/tr/3-Data-Visualization/10-visualization-distributions/README.md
new file mode 100644
index 00000000..cbcb45d4
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/10-visualization-distributions/README.md
@@ -0,0 +1,217 @@
+
+# Dağılımları Görselleştirme
+
+| ](../../sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Dağılımları Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Önceki derste, Minnesota kuşlarıyla ilgili bir veri seti hakkında bazı ilginç bilgiler öğrendiniz. Aykırı değerleri görselleştirerek hatalı verileri buldunuz ve kuş kategorileri arasındaki maksimum uzunluk farklarına baktınız.
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Kuş veri setini keşfetme
+
+Verilere daha derinlemesine bakmanın bir başka yolu, dağılımına, yani verilerin bir eksen boyunca nasıl organize edildiğine bakmaktır. Örneğin, bu veri setinde Minnesota kuşlarının maksimum kanat açıklığı veya maksimum vücut kütlesinin genel dağılımını öğrenmek isteyebilirsiniz.
+
+Bu veri setindeki verilerin dağılımları hakkında bazı bilgiler keşfedelim. Bu ders klasörünün kökündeki _notebook.ipynb_ dosyasında Pandas, Matplotlib ve verilerinizi içe aktarın:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+birds = pd.read_csv('../../data/birds.csv')
+birds.head()
+```
+
+| | İsim | BilimselAdı | Kategori | Takım | Aile | Cins | KorumaDurumu | MinUzunluk | MaxUzunluk | MinVücutKütlesi | MaxVücutKütlesi | MinKanatAçıklığı | MaxKanatAçıklığı |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :----------- | :------- | :---------- | :----------------- | ----------: | ----------: | -------------: | -------------: | ---------------: | ---------------: |
+| 0 | Kara karınlı ıslıkçı ördek | Dendrocygna autumnalis | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Sarımsı ıslıkçı ördek | Dendrocygna bicolor | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Kar kazı | Anser caerulescens | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross'un kazı | Anser rossii | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Büyük beyaz alınlı kaz | Anser albifrons | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Genel olarak, verilerin nasıl dağıldığını hızlıca görmek için önceki derste yaptığımız gibi bir dağılım grafiği kullanabilirsiniz:
+
+```python
+birds.plot(kind='scatter',x='MaxLength',y='Order',figsize=(12,8))
+
+plt.title('Max Length per Order')
+plt.ylabel('Order')
+plt.xlabel('Max Length')
+
+plt.show()
+```
+
+
+Bu, kuşların takımlarına göre genel vücut uzunluğu dağılımına bir genel bakış sunar, ancak gerçek dağılımları göstermek için en uygun yol değildir. Bu görev genellikle bir Histogram oluşturarak gerçekleştirilir.
+
+## Histogramlarla Çalışma
+
+Matplotlib, Histogramlar kullanarak veri dağılımını görselleştirmek için çok iyi yollar sunar. Bu tür bir grafik, dağılımın çubukların yükselip alçalmasıyla görülebildiği bir çubuk grafik gibidir. Bir histogram oluşturmak için sayısal verilere ihtiyacınız vardır. Histogram oluşturmak için, grafik türünü 'hist' olarak tanımlayarak bir grafik çizebilirsiniz. Bu grafik, tüm veri setinin sayısal veri aralığı için MaxBodyMass dağılımını gösterir. Verileri daha küçük bölmelere ayırarak, verilerin değerlerinin dağılımını gösterebilir:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 10, figsize = (12,12))
+plt.show()
+```
+
+
+Gördüğünüz gibi, bu veri setindeki 400'den fazla kuşun çoğu, Max Body Mass için 2000'in altında bir aralığa düşmektedir. `bins` parametresini daha yüksek bir sayıya, örneğin 30'a değiştirerek veriler hakkında daha fazla bilgi edinin:
+
+```python
+birds['MaxBodyMass'].plot(kind = 'hist', bins = 30, figsize = (12,12))
+plt.show()
+```
+
+
+Bu grafik, dağılımı biraz daha ayrıntılı bir şekilde gösterir. Daha az sola eğimli bir grafik, yalnızca belirli bir aralıktaki verileri seçerek oluşturulabilir:
+
+Verilerinizi filtreleyerek vücut kütlesi 60'ın altında olan kuşları alın ve 40 `bins` gösterin:
+
+```python
+filteredBirds = birds[(birds['MaxBodyMass'] > 1) & (birds['MaxBodyMass'] < 60)]
+filteredBirds['MaxBodyMass'].plot(kind = 'hist',bins = 40,figsize = (12,12))
+plt.show()
+```
+
+
+✅ Diğer filtreleri ve veri noktalarını deneyin. Verilerin tam dağılımını görmek için, `['MaxBodyMass']` filtresini kaldırarak etiketli dağılımları gösterin.
+
+Histogram, bazı güzel renk ve etiketleme geliştirmeleri de sunar:
+
+İki dağılım arasındaki ilişkiyi karşılaştırmak için 2D bir histogram oluşturun. `MaxBodyMass` ve `MaxLength`'i karşılaştıralım. Matplotlib, daha parlak renkler kullanarak yakınsama göstermenin yerleşik bir yolunu sunar:
+
+```python
+x = filteredBirds['MaxBodyMass']
+y = filteredBirds['MaxLength']
+
+fig, ax = plt.subplots(tight_layout=True)
+hist = ax.hist2d(x, y)
+```
+Bu iki eleman arasında beklenen bir eksen boyunca bir korelasyon olduğu ve bir noktada özellikle güçlü bir yakınsama olduğu görülüyor:
+
+
+
+Histogramlar, varsayılan olarak sayısal veriler için iyi çalışır. Peki ya metin verilerine göre dağılımları görmek isterseniz?
+## Veri setini metin verileri kullanarak dağılımlar için keşfetme
+
+Bu veri seti ayrıca kuş kategorisi, cinsi, türü ve ailesi ile koruma durumu hakkında iyi bilgiler içerir. Bu koruma bilgilerini inceleyelim. Kuşların koruma durumlarına göre dağılımı nedir?
+
+> ✅ Veri setinde, koruma durumunu tanımlamak için birkaç kısaltma kullanılmıştır. Bu kısaltmalar, türlerin durumunu kataloglayan bir organizasyon olan [IUCN Kırmızı Liste Kategorileri](https://www.iucnredlist.org/) tarafından sağlanmıştır.
+>
+> - CR: Kritik Tehlike Altında
+> - EN: Tehlike Altında
+> - EX: Soyu Tükenmiş
+> - LC: En Az Endişe
+> - NT: Tehdit Altında
+> - VU: Hassas
+
+Bunlar metin tabanlı değerlerdir, bu nedenle bir histogram oluşturmak için bir dönüşüm yapmanız gerekecektir. FilteredBirds veri çerçevesini kullanarak, koruma durumunu Minimum Kanat Açıklığı ile birlikte görüntüleyin. Ne görüyorsunuz?
+
+```python
+x1 = filteredBirds.loc[filteredBirds.ConservationStatus=='EX', 'MinWingspan']
+x2 = filteredBirds.loc[filteredBirds.ConservationStatus=='CR', 'MinWingspan']
+x3 = filteredBirds.loc[filteredBirds.ConservationStatus=='EN', 'MinWingspan']
+x4 = filteredBirds.loc[filteredBirds.ConservationStatus=='NT', 'MinWingspan']
+x5 = filteredBirds.loc[filteredBirds.ConservationStatus=='VU', 'MinWingspan']
+x6 = filteredBirds.loc[filteredBirds.ConservationStatus=='LC', 'MinWingspan']
+
+kwargs = dict(alpha=0.5, bins=20)
+
+plt.hist(x1, **kwargs, color='red', label='Extinct')
+plt.hist(x2, **kwargs, color='orange', label='Critically Endangered')
+plt.hist(x3, **kwargs, color='yellow', label='Endangered')
+plt.hist(x4, **kwargs, color='green', label='Near Threatened')
+plt.hist(x5, **kwargs, color='blue', label='Vulnerable')
+plt.hist(x6, **kwargs, color='gray', label='Least Concern')
+
+plt.gca().set(title='Conservation Status', ylabel='Min Wingspan')
+plt.legend();
+```
+
+
+
+Minimum kanat açıklığı ile koruma durumu arasında iyi bir korelasyon görünmüyor. Bu yöntemi kullanarak veri setinin diğer öğelerini test edin. Farklı filtreler de deneyebilirsiniz. Herhangi bir korelasyon buluyor musunuz?
+
+## Yoğunluk Grafikleri
+
+Şimdiye kadar incelediğimiz histogramların 'basamaklı' olduğunu ve düzgün bir yay şeklinde akmadığını fark etmiş olabilirsiniz. Daha düzgün bir yoğunluk grafiği göstermek için bir yoğunluk grafiği deneyebilirsiniz.
+
+Yoğunluk grafikleriyle çalışmak için, yeni bir çizim kütüphanesi olan [Seaborn](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) ile tanışın.
+
+Seaborn'u yükleyerek, temel bir yoğunluk grafiği deneyin:
+
+```python
+import seaborn as sns
+import matplotlib.pyplot as plt
+sns.kdeplot(filteredBirds['MinWingspan'])
+plt.show()
+```
+
+
+Bu grafiğin, Minimum Kanat Açıklığı verileri için önceki grafiği yankıladığını görebilirsiniz; sadece biraz daha düzgün. Seaborn'un belgelerine göre, "Bir histogramla karşılaştırıldığında, KDE birden fazla dağılım çizerken daha az karmaşık ve daha anlaşılır bir grafik üretebilir. Ancak, altta yatan dağılım sınırlı veya düzgün değilse bozulmalar yaratma potansiyeline sahiptir. Bir histogram gibi, temsilin kalitesi de iyi bir yumuşatma parametresi seçimine bağlıdır." [kaynak](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) Başka bir deyişle, her zaman olduğu gibi aykırı değerler grafiklerinizi kötü etkileyebilir.
+
+İkinci grafikte oluşturduğunuz o keskin MaxBodyMass çizgisini yeniden ziyaret etmek isterseniz, bu yöntemi kullanarak onu oldukça iyi bir şekilde düzeltebilirsiniz:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'])
+plt.show()
+```
+
+
+Çok düzgün olmayan ama yine de düzgün bir çizgi istiyorsanız, `bw_adjust` parametresini düzenleyin:
+
+```python
+sns.kdeplot(filteredBirds['MaxBodyMass'], bw_adjust=.2)
+plt.show()
+```
+
+
+✅ Bu tür grafik için mevcut parametreler hakkında okuyun ve deneyin!
+
+Bu tür grafikler, açıklayıcı görselleştirmeler sunar. Örneğin, birkaç satır kodla, kuş Takımlarına göre maksimum vücut kütlesi yoğunluğunu gösterebilirsiniz:
+
+```python
+sns.kdeplot(
+ data=filteredBirds, x="MaxBodyMass", hue="Order",
+ fill=True, common_norm=False, palette="crest",
+ alpha=.5, linewidth=0,
+)
+```
+
+
+
+Ayrıca, bir grafikte birden fazla değişkenin yoğunluğunu eşleyebilirsiniz. Bir kuşun MaxLength ve MinLength'ini koruma durumlarına göre test edin:
+
+```python
+sns.kdeplot(data=filteredBirds, x="MinLength", y="MaxLength", hue="ConservationStatus")
+```
+
+
+
+Belki de 'Hassas' kuşların uzunluklarına göre kümelenmesinin anlamlı olup olmadığını araştırmaya değer.
+
+## 🚀 Zorluk
+
+Histogramlar, temel dağılım grafikleri, çubuk grafikler veya çizgi grafiklerden daha sofistike bir grafik türüdür. İnternette histogramların iyi kullanımlarını bulmak için bir arama yapın. Nasıl kullanılıyorlar, neyi gösteriyorlar ve hangi alanlarda veya araştırma konularında kullanılma eğilimindeler?
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bu derste, Matplotlib kullandınız ve daha sofistike grafikler göstermek için Seaborn ile çalışmaya başladınız. Seaborn'daki `kdeplot` hakkında araştırma yapın, "bir veya daha fazla boyutta sürekli olasılık yoğunluğu eğrisi". [Belgeleri](https://seaborn.pydata.org/generated/seaborn.kdeplot.html) okuyarak nasıl çalıştığını anlayın.
+
+## Ödev
+
+[Becerilerinizi uygulayın](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/10-visualization-distributions/assignment.md b/translations/tr/3-Data-Visualization/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..7cc3a450
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Becerilerinizi Uygulayın
+
+## Talimatlar
+
+Şimdiye kadar, Minnesota kuşları veri setiyle çalışarak kuş miktarları ve nüfus yoğunluğu hakkında bilgi keşfettiniz. Bu teknikleri uygulama pratiği yapmak için [Kaggle](https://www.kaggle.com/) gibi bir kaynaktan farklı bir veri seti deneyin. Bu veri seti hakkında bir hikaye anlatan bir notebook oluşturun ve bunu tartışırken histogramlar kullanmayı unutmayın.
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Bu veri seti hakkında açıklamalar, kaynağı dahil olmak üzere, içeren bir notebook sunulur ve veri hakkında gerçekleri keşfetmek için en az 5 histogram kullanılır. | Eksik açıklamalar veya hatalar içeren bir notebook sunulur. | Açıklamalar olmadan ve hatalar içeren bir notebook sunulur.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/11-visualization-proportions/README.md b/translations/tr/3-Data-Visualization/11-visualization-proportions/README.md
new file mode 100644
index 00000000..7e43ed73
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/11-visualization-proportions/README.md
@@ -0,0 +1,204 @@
+
+# Oranları Görselleştirme
+
+| ](../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Oranları Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Bu derste, mantarlarla ilgili bir veri kümesinde farklı mantar türlerinin oranlarını görselleştirmek gibi oranları incelemek için doğa odaklı farklı bir veri kümesi kullanacaksınız. Agaricus ve Lepiota ailelerine ait 23 tür lamelli mantar hakkında Audubon'dan alınan bir veri kümesini keşfederek bu büyüleyici mantarları inceleyeceğiz. Şu lezzetli görselleştirmelerle denemeler yapacaksınız:
+
+- Pasta grafikleri 🥧
+- Donut grafikleri 🍩
+- Waffle grafikleri 🧇
+
+> 💡 Microsoft Research tarafından geliştirilen [Charticulator](https://charticulator.com) adlı çok ilginç bir proje, veri görselleştirmeleri için ücretsiz bir sürükle-bırak arayüzü sunuyor. Bu projede, mantar veri kümesini kullandıkları bir eğitim de var! Böylece hem veriyi keşfedebilir hem de kütüphaneyi öğrenebilirsiniz: [Charticulator tutorial](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Ders Öncesi Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Mantarlarınızı Tanıyın 🍄
+
+Mantarlar oldukça ilginçtir. Hadi bir veri kümesi içe aktararak onları inceleyelim:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+mushrooms = pd.read_csv('../../data/mushrooms.csv')
+mushrooms.head()
+```
+Bir tablo, analiz için harika verilerle birlikte yazdırılır:
+
+
+| class | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | stalk-root | stalk-surface-above-ring | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Zehirli | Konveks | Düzgün | Kahverengi| Morarma | Keskin | Serbest | Yakın | Dar | Siyah | Genişleyen | Eşit | Düzgün | Düzgün | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkan | Siyah | Dağınık | Şehir |
+| Yenilebilir| Konveks | Düzgün | Sarı | Morarma | Badem | Serbest | Yakın | Geniş | Siyah | Genişleyen | Kulüp | Düzgün | Düzgün | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkan | Kahverengi | Çok | Çimenler|
+| Yenilebilir| Çan | Düzgün | Beyaz | Morarma | Anason | Serbest | Yakın | Geniş | Kahverengi | Genişleyen | Kulüp | Düzgün | Düzgün | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkan | Kahverengi | Çok | Çayırlar|
+| Zehirli | Konveks | Pullu | Beyaz | Morarma | Keskin | Serbest | Yakın | Dar | Kahverengi | Genişleyen | Eşit | Düzgün | Düzgün | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkan | Siyah | Dağınık | Şehir |
+
+Hemen fark ediyorsunuz ki tüm veriler metinsel. Bu verileri bir grafik oluşturmak için dönüştürmeniz gerekecek. Aslında, verilerin çoğu bir nesne olarak temsil ediliyor:
+
+```python
+print(mushrooms.select_dtypes(["object"]).columns)
+```
+
+Çıktı şu şekilde:
+
+```output
+Index(['class', 'cap-shape', 'cap-surface', 'cap-color', 'bruises', 'odor',
+ 'gill-attachment', 'gill-spacing', 'gill-size', 'gill-color',
+ 'stalk-shape', 'stalk-root', 'stalk-surface-above-ring',
+ 'stalk-surface-below-ring', 'stalk-color-above-ring',
+ 'stalk-color-below-ring', 'veil-type', 'veil-color', 'ring-number',
+ 'ring-type', 'spore-print-color', 'population', 'habitat'],
+ dtype='object')
+```
+Bu verileri alın ve 'class' sütununu bir kategoriye dönüştürün:
+
+```python
+cols = mushrooms.select_dtypes(["object"]).columns
+mushrooms[cols] = mushrooms[cols].astype('category')
+```
+
+```python
+edibleclass=mushrooms.groupby(['class']).count()
+edibleclass
+```
+
+Şimdi mantar verilerini yazdırırsanız, zehirli/yenilebilir sınıfına göre kategorilere ayrıldığını görebilirsiniz:
+
+
+| | cap-shape | cap-surface | cap-color | bruises | odor | gill-attachment | gill-spacing | gill-size | gill-color | stalk-shape | ... | stalk-surface-below-ring | stalk-color-above-ring | stalk-color-below-ring | veil-type | veil-color | ring-number | ring-type | spore-print-color | population | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ---- | --------------- | ------------ | --------- | ---------- | ----------- | --- | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| class | | | | | | | | | | | | | | | | | | | | | |
+| Yenilebilir| 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | ... | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 | 4208 |
+| Zehirli | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | ... | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 | 3916 |
+
+Bu tablodaki sırayı takip ederek sınıf kategori etiketlerinizi oluşturursanız, bir pasta grafiği oluşturabilirsiniz:
+
+## Pasta!
+
+```python
+labels=['Edible','Poisonous']
+plt.pie(edibleclass['population'],labels=labels,autopct='%.1f %%')
+plt.title('Edible?')
+plt.show()
+```
+İşte, bu iki mantar sınıfına göre verilerin oranlarını gösteren bir pasta grafiği. Etiketlerin sırasını doğru almak oldukça önemlidir, özellikle burada, bu yüzden etiket dizisinin oluşturulma sırasını doğruladığınızdan emin olun!
+
+
+
+## Donutlar!
+
+Biraz daha görsel olarak ilginç bir pasta grafiği, ortasında bir delik olan bir donut grafiğidir. Verilerimize bu yöntemle bakalım.
+
+Mantarların büyüdüğü çeşitli habitatlara bir göz atın:
+
+```python
+habitat=mushrooms.groupby(['habitat']).count()
+habitat
+```
+Burada verilerinizi habitatlara göre grupluyorsunuz. 7 habitat listelenmiş, bu yüzden donut grafiğiniz için bunları etiket olarak kullanın:
+
+```python
+labels=['Grasses','Leaves','Meadows','Paths','Urban','Waste','Wood']
+
+plt.pie(habitat['class'], labels=labels,
+ autopct='%1.1f%%', pctdistance=0.85)
+
+center_circle = plt.Circle((0, 0), 0.40, fc='white')
+fig = plt.gcf()
+
+fig.gca().add_artist(center_circle)
+
+plt.title('Mushroom Habitats')
+
+plt.show()
+```
+
+
+
+Bu kod bir grafik ve bir merkez çember çizer, ardından bu merkez çemberi grafiğe ekler. Merkez çemberin genişliğini `0.40` değerini değiştirerek düzenleyebilirsiniz.
+
+Donut grafikleri, etiketleri değiştirmek gibi çeşitli şekillerde özelleştirilebilir. Özellikle etiketler okunabilirlik için vurgulanabilir. Daha fazla bilgi için [dokümanlara](https://matplotlib.org/stable/gallery/pie_and_polar_charts/pie_and_donut_labels.html?highlight=donut) göz atın.
+
+Artık verilerinizi gruplamayı ve ardından pasta veya donut olarak görüntülemeyi öğrendiğinize göre, diğer grafik türlerini keşfedebilirsiniz. Waffle grafiği deneyin, bu sadece miktarı keşfetmenin farklı bir yoludur.
+## Waffle!
+
+'Waffle' türü bir grafik, miktarları 2D kare dizisi olarak görselleştirmenin farklı bir yoludur. Bu veri kümesindeki mantar şapka renklerinin farklı miktarlarını görselleştirmeyi deneyin. Bunu yapmak için [PyWaffle](https://pypi.org/project/pywaffle/) adlı bir yardımcı kütüphaneyi yüklemeniz ve Matplotlib kullanmanız gerekiyor:
+
+```python
+pip install pywaffle
+```
+
+Verilerinizden bir segment seçin ve gruplandırın:
+
+```python
+capcolor=mushrooms.groupby(['cap-color']).count()
+capcolor
+```
+
+Etiketler oluşturup ardından verilerinizi gruplandırarak bir waffle grafiği oluşturun:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+from pywaffle import Waffle
+
+data ={'color': ['brown', 'buff', 'cinnamon', 'green', 'pink', 'purple', 'red', 'white', 'yellow'],
+ 'amount': capcolor['class']
+ }
+
+df = pd.DataFrame(data)
+
+fig = plt.figure(
+ FigureClass = Waffle,
+ rows = 100,
+ values = df.amount,
+ labels = list(df.color),
+ figsize = (30,30),
+ colors=["brown", "tan", "maroon", "green", "pink", "purple", "red", "whitesmoke", "yellow"],
+)
+```
+
+Bir waffle grafiği kullanarak, bu mantar veri kümesindeki şapka renklerinin oranlarını açıkça görebilirsiniz. İlginç bir şekilde, birçok yeşil şapkalı mantar var!
+
+
+
+✅ Pywaffle, [Font Awesome](https://fontawesome.com/) içindeki herhangi bir simgeyi kullanarak grafiklerde simgeleri destekler. Kareler yerine simgeler kullanarak daha ilginç bir waffle grafiği oluşturmak için bazı deneyler yapın.
+
+Bu derste, oranları görselleştirmenin üç yolunu öğrendiniz. Öncelikle verilerinizi kategorilere ayırmanız ve ardından verileri görüntülemenin en iyi yoluna karar vermeniz gerekiyor - pasta, donut veya waffle. Hepsi lezzetli ve kullanıcıya bir veri kümesinin anlık görüntüsünü sunar.
+
+## 🚀 Meydan Okuma
+
+Bu lezzetli grafikleri [Charticulator](https://charticulator.com) ile yeniden oluşturmaya çalışın.
+## [Ders Sonrası Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## İnceleme ve Kendi Kendine Çalışma
+
+Bazen pasta, donut veya waffle grafiği kullanmanın ne zaman uygun olduğu açık olmayabilir. Bu konuyla ilgili şu makaleleri okuyabilirsiniz:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Bu zor kararla ilgili daha fazla bilgi bulmak için araştırma yapın.
+## Ödev
+
+[Excel'de Deneyin](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/11-visualization-proportions/assignment.md b/translations/tr/3-Data-Visualization/11-visualization-proportions/assignment.md
new file mode 100644
index 00000000..fb8e0218
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/11-visualization-proportions/assignment.md
@@ -0,0 +1,25 @@
+
+# Excel'de Deneyin
+
+## Talimatlar
+
+Excel'de donut, pasta ve waffle grafikler oluşturabileceğinizi biliyor muydunuz? Seçtiğiniz bir veri setini kullanarak, bu üç grafiği doğrudan bir Excel elektronik tablosunda oluşturun.
+
+## Değerlendirme Ölçütleri
+
+| Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor |
+| ------------------------------------------------------ | ------------------------------------------------ | --------------------------------------------------- |
+| Tüm üç grafiği içeren bir Excel elektronik tablosu sunulur | İki grafiği içeren bir Excel elektronik tablosu sunulur | Sadece bir grafiği içeren bir Excel elektronik tablosu sunulur |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı bir yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan herhangi bir yanlış anlama veya yanlış yorumlama durumunda sorumluluk kabul edilmez.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/12-visualization-relationships/README.md b/translations/tr/3-Data-Visualization/12-visualization-relationships/README.md
new file mode 100644
index 00000000..c27bd49d
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/12-visualization-relationships/README.md
@@ -0,0 +1,186 @@
+
+# İlişkileri Görselleştirme: Bal Hakkında Her Şey 🍯
+
+| ](../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|İlişkileri Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Araştırmamızın doğa odaklı temasına devam ederek, [Amerika Birleşik Devletleri Tarım Bakanlığı](https://www.nass.usda.gov/About_NASS/index.php) tarafından sağlanan bir veri setine göre, çeşitli bal türleri arasındaki ilişkileri göstermek için ilginç görselleştirmeler keşfedelim.
+
+Yaklaşık 600 öğeden oluşan bu veri seti, birçok ABD eyaletindeki bal üretimini göstermektedir. Örneğin, 1998-2012 yılları arasında her bir eyalet için yıllık bir satır olacak şekilde, bir eyaletteki koloni sayısını, koloni başına verimi, toplam üretimi, stokları, pound başına fiyatı ve üretilen balın değerini inceleyebilirsiniz.
+
+Bir eyaletin yıllık üretimi ile o eyaletteki bal fiyatı arasındaki ilişkiyi görselleştirmek ilginç olabilir. Alternatif olarak, eyaletlerin koloni başına bal verimi arasındaki ilişkiyi görselleştirebilirsiniz. Bu zaman aralığı, 2006 yılında ilk kez görülen yıkıcı 'Koloni Çöküş Bozukluğu' (CCD) (http://npic.orst.edu/envir/ccd.html) dönemini kapsadığı için çalışılması anlamlı bir veri setidir. 🐝
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Bu derste, daha önce kullandığınız Seaborn kütüphanesini, değişkenler arasındaki ilişkileri görselleştirmek için kullanabilirsiniz. Özellikle ilginç olan, Seaborn'un `relplot` fonksiyonunun kullanımıdır. Bu fonksiyon, veri bilimcilerin değişkenlerin birbirleriyle nasıl ilişkili olduğunu daha iyi anlamalarını sağlayan '[istatistiksel ilişkileri](https://seaborn.pydata.org/tutorial/relational.html?highlight=relationships)' hızlı bir şekilde görselleştirmek için dağılım grafikleri ve çizgi grafikleri oluşturur.
+
+## Dağılım Grafikleri
+
+Bal fiyatının eyalet bazında yıllar içinde nasıl değiştiğini göstermek için bir dağılım grafiği kullanın. Seaborn'un `relplot` fonksiyonu, eyalet verilerini gruplar ve hem kategorik hem de sayısal veriler için veri noktalarını görüntüler.
+
+Hadi verileri ve Seaborn'u içe aktararak başlayalım:
+
+```python
+import pandas as pd
+import matplotlib.pyplot as plt
+import seaborn as sns
+honey = pd.read_csv('../../data/honey.csv')
+honey.head()
+```
+Bal verilerinin yıl ve pound başına fiyat gibi birkaç ilginç sütunu olduğunu fark edeceksiniz. ABD eyaletlerine göre gruplandırılmış bu verileri inceleyelim:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+
+Koloni başına pound fiyatı ile balın üretildiği ABD eyaleti arasındaki ilişkiyi göstermek için temel bir dağılım grafiği oluşturun. `y` eksenini tüm eyaletleri gösterecek kadar uzun yapın:
+
+```python
+sns.relplot(x="priceperlb", y="state", data=honey, height=15, aspect=.5);
+```
+
+
+Şimdi, aynı verileri yıllar içinde fiyatın nasıl değiştiğini göstermek için bir bal renk şemasıyla gösterin. Bunu, yıllar içindeki değişimi göstermek için bir 'hue' parametresi ekleyerek yapabilirsiniz:
+
+> ✅ Seaborn'da kullanabileceğiniz [renk paletleri hakkında daha fazla bilgi edinin](https://seaborn.pydata.org/tutorial/color_palettes.html) - güzel bir gökkuşağı renk şeması deneyin!
+
+```python
+sns.relplot(x="priceperlb", y="state", hue="year", palette="YlOrBr", data=honey, height=15, aspect=.5);
+```
+
+
+Bu renk şeması değişikliğiyle, pound başına bal fiyatında yıllar içinde belirgin bir artış olduğunu görebilirsiniz. Gerçekten de, verilerde bir örnek seti doğrulamak için (örneğin Arizona'yı seçin) yıllar içinde fiyat artışlarının bir modelini, birkaç istisna dışında görebilirsiniz:
+
+| state | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Başka bir yolu, renk yerine boyutu kullanarak bu ilerlemeyi görselleştirmektir. Renk körü kullanıcılar için bu daha iyi bir seçenek olabilir. Görselleştirmenizi, fiyat artışını nokta çevresinin artışıyla gösterecek şekilde düzenleyin:
+
+```python
+sns.relplot(x="priceperlb", y="state", size="year", data=honey, height=15, aspect=.5);
+```
+Noktaların boyutunun kademeli olarak arttığını görebilirsiniz.
+
+
+
+Bu basit bir arz ve talep meselesi mi? İklim değişikliği ve koloni çöküşü gibi faktörler nedeniyle, yıllar içinde satın alınabilir daha az bal mı var ve bu nedenle fiyat mı artıyor?
+
+Bu veri setindeki bazı değişkenler arasındaki bir korelasyonu keşfetmek için, bazı çizgi grafiklerini inceleyelim.
+
+## Çizgi Grafikler
+
+Soru: Pound başına bal fiyatında yıllar içinde net bir artış var mı? Bunu en kolay şekilde tek bir çizgi grafiği oluşturarak keşfedebilirsiniz:
+
+```python
+sns.relplot(x="year", y="priceperlb", kind="line", data=honey);
+```
+Cevap: Evet, 2003 yılı civarındaki bazı istisnalarla birlikte:
+
+
+
+✅ Seaborn, bir çizgi etrafında verileri topladığı için, "her x değeri için birden fazla ölçümü ortalama ve ortalama etrafındaki %95 güven aralığını çizerek" gösterir. [Kaynak](https://seaborn.pydata.org/tutorial/relational.html). Bu zaman alıcı davranış, `ci=None` eklenerek devre dışı bırakılabilir.
+
+Soru: Peki, 2003 yılında bal arzında bir artış da görebilir miyiz? Yıllar içinde toplam üretime bakarsanız ne olur?
+
+```python
+sns.relplot(x="year", y="totalprod", kind="line", data=honey);
+```
+
+
+
+Cevap: Pek değil. Toplam üretime bakarsanız, aslında o yıl belirgin bir artış olduğu görülüyor, ancak genel olarak bu yıllar boyunca üretilen bal miktarının azaldığı görülüyor.
+
+Soru: Bu durumda, 2003 yılı civarındaki bal fiyatındaki artışa ne sebep olmuş olabilir?
+
+Bunu keşfetmek için bir facet grid'i inceleyebilirsiniz.
+
+## Facet Grid'ler
+
+Facet grid'ler, veri setinizin bir yönünü (bizim durumumuzda 'yıl'ı seçebilirsiniz) alır. Seaborn, seçtiğiniz x ve y koordinatları için her bir facet için bir grafik oluşturabilir, böylece görsel karşılaştırmayı kolaylaştırır. 2003 yılı bu tür bir karşılaştırmada öne çıkıyor mu?
+
+Seaborn'un [belgelerinde önerildiği](https://seaborn.pydata.org/generated/seaborn.FacetGrid.html?highlight=facetgrid#seaborn.FacetGrid) gibi `relplot` kullanmaya devam ederek bir facet grid oluşturun.
+
+```python
+sns.relplot(
+ data=honey,
+ x="yieldpercol", y="numcol",
+ col="year",
+ col_wrap=3,
+ kind="line"
+```
+Bu görselleştirmede, koloni başına verim ve koloni sayısını yıllar içinde yan yana, sütunlar için 3 ile sarılmış olarak karşılaştırabilirsiniz:
+
+
+
+Bu veri seti için, yıllar ve eyaletler arasında koloni sayısı ve verim açısından özellikle dikkat çeken bir şey yok. Bu iki değişken arasında bir korelasyon bulmanın farklı bir yolu var mı?
+
+## Çift Çizgi Grafikler
+
+Seaborn'un 'despine' özelliğini kullanarak üst ve sağ omurgaları kaldırın ve Matplotlib'den türetilen `ax.twinx` [kaynağını](https://matplotlib.org/stable/api/_as_gen/matplotlib.axes.Axes.twinx.html) kullanarak iki çizgi grafiği üst üste bindirin. Twinx, bir grafiğin x eksenini paylaşmasını ve iki y ekseni görüntülemesini sağlar. Böylece, koloni başına verim ve koloni sayısını üst üste bindirilmiş olarak görüntüleyin:
+
+```python
+fig, ax = plt.subplots(figsize=(12,6))
+lineplot = sns.lineplot(x=honey['year'], y=honey['numcol'], data=honey,
+ label = 'Number of bee colonies', legend=False)
+sns.despine()
+plt.ylabel('# colonies')
+plt.title('Honey Production Year over Year');
+
+ax2 = ax.twinx()
+lineplot2 = sns.lineplot(x=honey['year'], y=honey['yieldpercol'], ax=ax2, color="r",
+ label ='Yield per colony', legend=False)
+sns.despine(right=False)
+plt.ylabel('colony yield')
+ax.figure.legend();
+```
+
+
+2003 yılı civarında göze çarpan bir şey olmasa da, bu dersi biraz daha mutlu bir notla bitirmemizi sağlıyor: genel olarak azalan koloni sayısına rağmen, koloni sayısı sabitleniyor, hatta koloni başına verim azalsa bile.
+
+Haydi arılar, devam edin!
+
+🐝❤️
+## 🚀 Zorluk
+
+Bu derste, dağılım grafikleri ve çizgi grid'lerinin diğer kullanımları hakkında biraz daha bilgi edindiniz, facet grid'ler dahil. Daha önceki derslerde kullandığınız farklı bir veri seti kullanarak bir facet grid oluşturmayı deneyin. Bunları oluşturmanın ne kadar sürdüğünü ve bu teknikleri kullanırken kaç tane grid çizmeniz gerektiğine dikkat etmeniz gerektiğini not edin.
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Çizgi grafikleri basit veya oldukça karmaşık olabilir. [Seaborn belgelerinde](https://seaborn.pydata.org/generated/seaborn.lineplot.html) çizgi grafikleri oluşturmanın çeşitli yolları hakkında biraz okuyun. Bu derste oluşturduğunuz çizgi grafiklerini, belgelerde listelenen diğer yöntemlerle geliştirmeyi deneyin.
+## Ödev
+
+[Arı kovanına dalın](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/12-visualization-relationships/assignment.md b/translations/tr/3-Data-Visualization/12-visualization-relationships/assignment.md
new file mode 100644
index 00000000..e8221f38
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/12-visualization-relationships/assignment.md
@@ -0,0 +1,25 @@
+
+# Arı Kovanına Dalış
+
+## Talimatlar
+
+Bu derste, arıların ve bal üretiminin belirli bir zaman dilimindeki verilerini incelemeye başladınız. Bu dönem, genel olarak arı kolonisi nüfusundaki kayıpları da içeriyor. Bu veri setini daha derinlemesine inceleyin ve eyalet bazında ve yıl bazında arı nüfusunun sağlığını anlatan bir not defteri oluşturun. Bu veri seti hakkında ilginç bir şey keşfediyor musunuz?
+
+## Değerlendirme Ölçütleri
+
+| Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor |
+| ---------------------------------------------------------------------------------------------------------------------------------------------------- | --------------------------------------- | ---------------------------------------- |
+| Veri setinin eyalet bazında ve yıl bazında farklı yönlerini gösteren en az üç farklı grafikle açıklamalı bir hikaye sunan bir not defteri hazırlanmıştır | Not defteri bu unsurlardan birini eksik sunuyor | Not defteri bu unsurlardan ikisini eksik sunuyor |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/13-meaningful-visualizations/README.md b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/README.md
new file mode 100644
index 00000000..a79211b6
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/README.md
@@ -0,0 +1,182 @@
+
+# Anlamlı Görselleştirmeler Yapmak
+
+| ](../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Anlamlı Görselleştirmeler - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+> "Veriyi yeterince işkence ederseniz, her şeyi itiraf eder." -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Bir veri bilimcisinin temel becerilerinden biri, sahip olduğunuz soruları yanıtlamaya yardımcı olacak anlamlı bir veri görselleştirmesi oluşturma yeteneğidir. Verilerinizi görselleştirmeden önce, önceki derslerde olduğu gibi temizlenmiş ve hazırlanmış olduğundan emin olmanız gerekir. Bundan sonra, verileri en iyi şekilde nasıl sunacağınızı belirlemeye başlayabilirsiniz.
+
+Bu derste şunları gözden geçireceksiniz:
+
+1. Doğru grafik türünü nasıl seçersiniz
+2. Yanıltıcı grafiklerden nasıl kaçınırsınız
+3. Renklerle nasıl çalışırsınız
+4. Grafiklerinizi okunabilirlik için nasıl tasarlarsınız
+5. Animasyonlu veya 3D grafik çözümleri nasıl oluşturulur
+6. Yaratıcı bir görselleştirme nasıl yapılır
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Doğru grafik türünü seçmek
+
+Önceki derslerde, Matplotlib ve Seaborn kullanarak her türlü ilginç veri görselleştirmesi oluşturmayı denediniz. Genel olarak, sorduğunuz soruya uygun [doğru grafik türünü](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) bu tabloyu kullanarak seçebilirsiniz:
+
+| Yapmanız gereken: | Kullanmanız gereken: |
+| -------------------------- | ------------------------------- |
+| Zaman içindeki veri trendlerini göstermek | Çizgi |
+| Kategorileri karşılaştırmak | Çubuk, Pasta |
+| Toplamları karşılaştırmak | Pasta, Yığılmış Çubuk |
+| İlişkileri göstermek | Dağılım, Çizgi, Facet, Çift Çizgi |
+| Dağılımları göstermek | Dağılım, Histogram, Kutu |
+| Oranları göstermek | Pasta, Donut, Waffle |
+
+> ✅ Verilerinizin yapısına bağlı olarak, belirli bir grafiğin desteklenmesi için metinden sayısala dönüştürmeniz gerekebilir.
+
+## Yanıltıcı grafiklerden kaçınmak
+
+Bir veri bilimci doğru grafik türünü doğru veri için dikkatlice seçse bile, veriler genellikle bir noktayı kanıtlamak için, çoğu zaman verinin kendisini baltalama pahasına, yanıltıcı bir şekilde gösterilebilir. Yanıltıcı grafikler ve infografikler hakkında birçok örnek bulunmaktadır!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Yanıltıcı grafikler hakkında bir konferans konuşması için yukarıdaki görsele tıklayın
+
+Bu grafik, X eksenini ters çevirerek tarihe dayalı olarak gerçeğin tam tersini gösteriyor:
+
+
+
+[Bu grafik](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) daha da yanıltıcıdır, çünkü göz sağa doğru çekilerek zamanla COVID vakalarının çeşitli ilçelerde azaldığı sonucuna varır. Aslında, tarihlere yakından bakarsanız, bu yanıltıcı düşüş eğilimini vermek için yeniden düzenlendiklerini görürsünüz.
+
+
+
+Bu kötü şöhretli örnek, yanıltmak için renk ve ters çevrilmiş Y eksenini kullanır: silah dostu yasaların geçmesinden sonra silah ölümlerinin arttığı sonucuna varmak yerine, göz tam tersinin doğru olduğunu düşünmek için kandırılır:
+
+
+
+Bu garip grafik, oranların nasıl manipüle edilebileceğini, komik bir şekilde gösteriyor:
+
+
+
+Karşılaştırılamaz olanı karşılaştırmak, başka bir gölgeli hiledir. [Harika bir web sitesi](https://tylervigen.com/spurious-correlations), Maine'deki boşanma oranı ile margarin tüketimi gibi şeyleri ilişkilendiren 'uydurma korelasyonlar' hakkında 'gerçekler' sergiliyor. Bir Reddit grubu ayrıca [verilerin çirkin kullanımlarını](https://www.reddit.com/r/dataisugly/top/?t=all) toplar.
+
+Gözün yanıltıcı grafiklerle ne kadar kolay kandırılabileceğini anlamak önemlidir. Veri bilimcisinin niyeti iyi olsa bile, çok fazla kategori gösteren bir pasta grafiği gibi kötü bir grafik türü seçimi yanıltıcı olabilir.
+
+## Renk
+
+Yukarıdaki 'Florida silah şiddeti' grafiğinde, özellikle Matplotlib ve Seaborn gibi çeşitli onaylanmış renk kütüphaneleri ve paletleriyle gelen kütüphaneler kullanılarak tasarlanmamış grafiklerde, rengin grafiklere ek bir anlam katmanı sağlayabileceğini gördünüz. Bir grafiği elle yapıyorsanız, biraz [renk teorisi](https://colormatters.com/color-and-design/basic-color-theory) çalışması yapın.
+
+> ✅ Grafik tasarlarken, erişilebilirliğin görselleştirmenin önemli bir yönü olduğunu unutmayın. Bazı kullanıcılar renk körü olabilir - grafiğiniz görme engelli kullanıcılar için iyi görüntüleniyor mu?
+
+Grafiğiniz için renk seçerken dikkatli olun, çünkü renk istemediğiniz bir anlam taşıyabilir. Yukarıdaki 'boy' grafiğindeki 'pembe kadınlar', grafiğin kendisinin tuhaflığını artıran belirgin bir 'kadınsı' anlam taşır.
+
+[Renk anlamı](https://colormatters.com/color-symbolism/the-meanings-of-colors) dünyanın farklı bölgelerinde farklı olabilir ve genellikle tonlarına göre anlam değiştirir. Genel olarak, renk anlamları şunları içerir:
+
+| Renk | Anlam |
+| ------ | ------------------- |
+| kırmızı | güç |
+| mavi | güven, sadakat |
+| sarı | mutluluk, dikkat |
+| yeşil | ekoloji, şans, kıskançlık |
+| mor | mutluluk |
+| turuncu | canlılık |
+
+Özel renklerle bir grafik oluşturmakla görevlendirildiyseniz, grafiklerinizin hem erişilebilir olduğundan hem de seçtiğiniz rengin iletmeye çalıştığınız anlamla örtüştüğünden emin olun.
+
+## Grafiklerinizi okunabilirlik için tasarlamak
+
+Grafikler, okunabilir olmadıklarında anlamlı değildir! Verilerinizle iyi ölçeklenecek şekilde grafiğinizin genişliğini ve yüksekliğini tasarlamayı düşünmek için bir an durun. Bir değişkenin (örneğin tüm 50 eyalet) görüntülenmesi gerekiyorsa, mümkünse Y ekseninde dikey olarak gösterin, böylece yatay kaydırmalı bir grafik oluşmasından kaçının.
+
+Eksenlerinizi etiketleyin, gerekirse bir açıklama sağlayın ve verilerin daha iyi anlaşılması için ipuçları sunun.
+
+Verileriniz X ekseninde metinsel ve ayrıntılıysa, daha iyi okunabilirlik için metni açılı hale getirebilirsiniz. [Matplotlib](https://matplotlib.org/stable/tutorials/toolkits/mplot3d.html) verileriniz destekliyorsa 3D grafikler sunar. `mpl_toolkits.mplot3d` kullanarak sofistike veri görselleştirmeleri üretilebilir.
+
+
+
+## Animasyon ve 3D grafik gösterimi
+
+Bugün en iyi veri görselleştirmelerinden bazıları animasyonludur. Shirley Wu, D3 ile yapılan '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)' gibi harika görselleştirmeler yapmıştır; burada her çiçek bir filmin görselleştirmesidir. Guardian için başka bir örnek 'bussed out', NYC'nin evsiz sorununu insanları şehirden otobüsle çıkararak nasıl ele aldığını göstermek için görselleştirmeleri Greensock ve D3 ile birleştiren etkileşimli bir deneyimdir.
+
+
+
+> "Bussed Out: Amerika Evsizlerini Nasıl Hareket Ettiriyor" [Guardian'dan](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Görselleştirmeler Nadieh Bremer & Shirley Wu tarafından.
+
+Bu ders, bu güçlü görselleştirme kütüphanelerini öğretmek için derinlemesine gitmek için yetersiz olsa da, D3'ü bir Vue.js uygulamasında deneyerek "Tehlikeli İlişkiler" kitabının animasyonlu bir sosyal ağ görselleştirmesini oluşturmayı deneyebilirsiniz.
+
+> "Les Liaisons Dangereuses" bir mektup romanıdır, yani bir dizi mektup olarak sunulan bir romandır. 1782'de Choderlos de Laclos tarafından yazılmıştır ve 18. yüzyılın sonlarında Fransız aristokrasisinin iki rakip kahramanı olan Vicomte de Valmont ve Marquise de Merteuil'in acımasız, ahlaki açıdan yozlaşmış sosyal manevralarını anlatır. Her ikisi de sonunda yok olur, ancak büyük bir sosyal zarar vermeden önce değil. Roman, çevrelerindeki çeşitli insanlara yazılan, intikam planlayan veya sadece sorun çıkarmak için yazılan bir dizi mektup olarak gelişir. Bu mektupların görselleştirmesini oluşturarak anlatının anahtar figürlerini görsel olarak keşfedin.
+
+Bir sosyal ağın animasyonlu bir görünümünü gösterecek bir web uygulaması tamamlayacaksınız. Bu uygulama, Vue.js ve D3 kullanarak bir [ağ görselleştirmesi](https://github.com/emiliorizzo/vue-d3-network) oluşturmak için tasarlanmış bir kütüphane kullanır. Uygulama çalışırken, ekran üzerindeki düğümleri çekerek verileri karıştırabilirsiniz.
+
+
+
+## Proje: D3.js kullanarak bir ağ göstermek için grafik oluşturun
+
+> Bu ders klasörü, referansınız için tamamlanmış projeyi bulabileceğiniz bir `solution` klasörü içerir.
+
+1. Başlangıç klasörünün kökündeki README.md dosyasındaki talimatları izleyin. Proje bağımlılıklarını yüklemeden önce makinenizde NPM ve Node.js'nin çalıştığından emin olun.
+
+2. `starter/src` klasörünü açın. Bir .json dosyasının tüm mektupları numaralandırılmış, 'to' ve 'from' açıklamalarıyla birlikte bulabileceğiniz bir `assets` klasörü keşfedeceksiniz.
+
+3. Görselleştirmeyi etkinleştirmek için `components/Nodes.vue` dosyasındaki kodu tamamlayın. `createLinks()` adlı yöntemi bulun ve aşağıdaki iç içe döngüyü ekleyin.
+
+.json nesnesini döngüye alarak mektupların 'to' ve 'from' verilerini yakalayın ve görselleştirme kütüphanesinin tüketebilmesi için `links` nesnesini oluşturun:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Uygulamanızı terminalden çalıştırın (npm run serve) ve görselleştirmenin keyfini çıkarın!
+
+## 🚀 Zorluk
+
+İnternette yanıltıcı görselleştirmeleri keşfetmek için bir tur yapın. Yazar kullanıcıyı nasıl kandırıyor ve bu kasıtlı mı? Görselleştirmeleri düzeltmeyi deneyin ve nasıl görünmeleri gerektiğini gösterin.
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## İnceleme ve Kendi Kendine Çalışma
+
+Yanıltıcı veri görselleştirme hakkında bazı makaleler okuyun:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Tarihi varlıklar ve eserler için bu ilginç görselleştirmelere bir göz atın:
+
+https://handbook.pubpub.org/
+
+Animasyonun görselleştirmelerinizi nasıl geliştirebileceğiyle ilgili bu makaleye göz atın:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Ödev
+
+[Kendi özel görselleştirmenizi oluşturun](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/13-meaningful-visualizations/assignment.md b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/assignment.md
new file mode 100644
index 00000000..757b8422
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/assignment.md
@@ -0,0 +1,25 @@
+
+# Kendi özel görselleştirmelerinizi oluşturun
+
+## Talimatlar
+
+Bu projedeki kod örneğini kullanarak bir sosyal ağ oluşturun ve kendi sosyal etkileşimlerinizi taklit eden veriler hazırlayın. Sosyal medya kullanımınızı haritalayabilir veya aile üyelerinizin bir diyagramını oluşturabilirsiniz. Sosyal ağın benzersiz bir görselleştirmesini gösteren ilginç bir web uygulaması oluşturun.
+
+## Değerlendirme Kriterleri
+
+Örnek | Yeterli | Geliştirme Gerekiyor
+--- | --- | --- |
+GitHub deposu, düzgün çalışan kodla (statik bir web uygulaması olarak dağıtmayı deneyin) ve projeyi açıklayan açıklamalı bir README dosyasıyla sunuluyor | Depo düzgün çalışmıyor veya yeterince belgelenmemiş | Depo düzgün çalışmıyor ve yeterince belgelenmemiş
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlık içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul edilmez.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/13-meaningful-visualizations/solution/README.md b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
new file mode 100644
index 00000000..d61baa6a
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/solution/README.md
@@ -0,0 +1,40 @@
+
+# Tehlikeli İlişkiler veri görselleştirme projesi
+
+Başlamak için, makinenizde NPM ve Node'un çalıştığından emin olmanız gerekiyor. Bağımlılıkları yükleyin (npm install) ve ardından projeyi yerel olarak çalıştırın (npm run serve):
+
+## Proje kurulumu
+```
+npm install
+```
+
+### Geliştirme için derler ve anında yeniden yükler
+```
+npm run serve
+```
+
+### Üretim için derler ve sıkıştırır
+```
+npm run build
+```
+
+### Dosyaları kontrol eder ve düzeltir
+```
+npm run lint
+```
+
+### Yapılandırmayı özelleştirme
+[Configuration Reference](https://cli.vuejs.org/config/) adresine bakın.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/13-meaningful-visualizations/starter/README.md b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
new file mode 100644
index 00000000..2543fe40
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/13-meaningful-visualizations/starter/README.md
@@ -0,0 +1,40 @@
+
+# Dangerous Liaisons veri görselleştirme projesi
+
+Başlamak için, makinenizde NPM ve Node'un çalıştığından emin olmanız gerekiyor. Bağımlılıkları yükleyin (npm install) ve ardından projeyi yerel olarak çalıştırın (npm run serve):
+
+## Proje kurulumu
+```
+npm install
+```
+
+### Geliştirme için derler ve anında yeniden yükler
+```
+npm run serve
+```
+
+### Üretim için derler ve sıkıştırır
+```
+npm run build
+```
+
+### Dosyaları kontrol eder ve düzeltir
+```
+npm run lint
+```
+
+### Yapılandırmayı özelleştirme
+[Configuration Reference](https://cli.vuejs.org/config/) adresine bakın.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/09-visualization-quantities/README.md b/translations/tr/3-Data-Visualization/R/09-visualization-quantities/README.md
new file mode 100644
index 00000000..e899f6ca
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/09-visualization-quantities/README.md
@@ -0,0 +1,230 @@
+
+# Miktarları Görselleştirme
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/09-Visualizing-Quantities.png)|
+|:---:|
+| Miktarları Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Bu derste, miktar kavramı etrafında ilginç görselleştirmeler oluşturmayı öğrenmek için mevcut birçok R paket kütüphanesinden bazılarını nasıl kullanacağınızı keşfedeceksiniz. Minnesota kuşları hakkında temizlenmiş bir veri seti kullanarak, yerel vahşi yaşam hakkında birçok ilginç bilgi edinebilirsiniz.
+## [Ders Öncesi Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/16)
+
+## ggplot2 ile kanat açıklığını gözlemleyin
+Hem basit hem de karmaşık grafikler ve çeşitli türlerde çizimler oluşturmak için mükemmel bir kütüphane olan [ggplot2](https://cran.r-project.org/web/packages/ggplot2/index.html) ile tanışın. Genel olarak, bu kütüphaneleri kullanarak veri görselleştirme süreci, hedeflemek istediğiniz veri çerçevesi bölümlerini belirlemeyi, gerekli veri dönüşümlerini yapmayı, x ve y ekseni değerlerini atamayı, hangi tür grafiği göstereceğinize karar vermeyi ve ardından grafiği göstermeyi içerir.
+
+`ggplot2`, Grafiklerin Grameri'ne dayalı olarak grafikler oluşturmak için deklaratif bir sistemdir. [Grafiklerin Grameri](https://en.wikipedia.org/wiki/Ggplot2), ölçekler ve katmanlar gibi grafik bileşenlerini semantik parçalara ayıran genel bir veri görselleştirme şemasıdır. Başka bir deyişle, az kodla tek değişkenli veya çok değişkenli veriler için grafikler ve çizimler oluşturmanın kolaylığı, `ggplot2`'yi R'de görselleştirme için en popüler paket haline getirir. Kullanıcı, `ggplot2`'ye değişkenleri estetiklere nasıl eşleştireceğini, hangi grafiksel ilkel öğeleri kullanacağını söyler ve `ggplot2` geri kalanını halleder.
+
+> ✅ Grafik = Veri + Estetik + Geometri
+> - Veri, veri setini ifade eder
+> - Estetik, incelenecek değişkenleri belirtir (x ve y değişkenleri)
+> - Geometri, grafik türünü ifade eder (çizgi grafiği, çubuk grafiği vb.)
+
+Verilerinize ve grafikle anlatmak istediğiniz hikayeye göre en iyi geometriyi (grafik türü) seçin.
+
+> - Eğilimleri analiz etmek için: çizgi, sütun
+> - Değerleri karşılaştırmak için: çubuk, sütun, pasta, dağılım grafiği
+> - Parçaların bütüne nasıl bağlandığını göstermek için: pasta
+> - Verilerin dağılımını göstermek için: dağılım grafiği, çubuk
+> - Değerler arasındaki ilişkileri göstermek için: çizgi, dağılım grafiği, balon
+
+✅ Ayrıca ggplot2 için bu açıklayıcı [kılavuzu](https://nyu-cdsc.github.io/learningr/assets/data-visualization-2.1.pdf) inceleyebilirsiniz.
+
+## Kuş kanat açıklığı değerleri hakkında bir çizgi grafiği oluşturun
+
+R konsolunu açın ve veri setini içe aktarın.
+> Not: Veri seti bu depo kök dizininde `/data` klasöründe saklanmıştır.
+
+Veri setini içe aktaralım ve verilerin başını (ilk 5 satırını) gözlemleyelim.
+
+```r
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+head(birds)
+```
+Verilerin başı, metin ve sayılar karışımından oluşur:
+
+| | İsim | BilimselAd | Kategori | Takım | Aile | Cins | KorumaDurumu | MinUzunluk | MaxUzunluk | MinVücutKütlesi | MaxVücutKütlesi | MinKanatAçıklığı | MaxKanatAçıklığı |
+| ---: | :---------------------------- | :--------------------- | :-------------------- | :------------ | :------- | :---------- | :------------------- | ----------: | ----------: | --------------: | --------------: | ---------------: | ---------------: |
+| 0 | Kara karınlı ıslıkçı ördek | Dendrocygna autumnalis | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Sarımsı ıslıkçı ördek | Dendrocygna bicolor | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Kar kazı | Anser caerulescens | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross'un kazı | Anser rossii | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Büyük beyaz alınlı kaz | Anser albifrons | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Şimdi bu ilginç kuşların maksimum kanat açıklığını gösteren temel bir çizgi grafiği çizelim.
+
+```r
+install.packages("ggplot2")
+library("ggplot2")
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line()
+```
+Burada `ggplot2` paketini yüklüyor ve ardından `library("ggplot2")` komutuyla çalışma alanına dahil ediyorsunuz. ggplot'ta herhangi bir grafik çizmek için `ggplot()` fonksiyonu kullanılır ve veri seti, x ve y değişkenleri öznitelik olarak belirtilir. Bu durumda, bir çizgi grafiği çizmeyi hedeflediğimiz için `geom_line()` fonksiyonunu kullanıyoruz.
+
+
+
+Hemen ne fark ediyorsunuz? En az bir aykırı değer var gibi görünüyor - bu oldukça büyük bir kanat açıklığı! 2000+ santimetrelik bir kanat açıklığı 20 metreden fazladır - Minnesota'da Pterodaktiller mi dolaşıyor? Hadi bunu araştıralım.
+
+Bu aykırı değerleri bulmak için Excel'de hızlı bir sıralama yapabilirsiniz, ancak görselleştirme sürecine grafikten çalışarak devam edin.
+
+X eksenine hangi tür kuşların söz konusu olduğunu göstermek için etiketler ekleyin:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_line() +
+ theme(axis.text.x = element_text(angle = 45, hjust=1))+
+ xlab("Birds") +
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters")
+```
+`theme` içinde açıyı belirtiyor ve `xlab()` ve `ylab()` ile x ve y ekseni etiketlerini belirtiyorsunuz. `ggtitle()` grafiğe bir ad verir.
+
+
+
+Etiketlerin 45 derece döndürülmesine rağmen, okunamayacak kadar çok etiket var. Farklı bir strateji deneyelim: yalnızca aykırı değerleri etiketleyin ve etiketleri grafik içinde ayarlayın. Daha fazla alan yaratmak için bir dağılım grafiği kullanabilirsiniz:
+
+```r
+ggplot(data=birds, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.title.x=element_blank(), axis.text.x=element_blank(), axis.ticks.x=element_blank())
+ ylab("Wingspan (CM)") +
+ ggtitle("Max Wingspan in Centimeters") +
+```
+Burada ne oluyor? `geom_point()` fonksiyonunu kullanarak dağılım noktaları çizdiniz. Bununla, `MaxWingspan > 500` olan kuşlar için etiketler eklediniz ve ayrıca grafiği sadeleştirmek için x eksenindeki etiketleri gizlediniz.
+
+Ne keşfediyorsunuz?
+
+
+
+## Verilerinizi filtreleyin
+
+Hem Kel Kartal hem de Bozkır Şahini, muhtemelen çok büyük kuşlar olsalar da, maksimum kanat açıklıklarına fazladan bir sıfır eklenmiş gibi görünüyor. 25 metrelik kanat açıklığına sahip bir Kel Kartal ile karşılaşırsanız, lütfen bize bildirin! Bu iki aykırı değeri içermeyen yeni bir veri çerçevesi oluşturalım:
+
+```r
+birds_filtered <- subset(birds, MaxWingspan < 500)
+
+ggplot(data=birds_filtered, aes(x=Name, y=MaxWingspan,group=1)) +
+ geom_point() +
+ ylab("Wingspan (CM)") +
+ xlab("Birds") +
+ ggtitle("Max Wingspan in Centimeters") +
+ geom_text(aes(label=ifelse(MaxWingspan>500,as.character(Name),'')),hjust=0,vjust=0) +
+ theme(axis.text.x=element_blank(), axis.ticks.x=element_blank())
+```
+Yeni bir `birds_filtered` veri çerçevesi oluşturduk ve ardından bir dağılım grafiği çizdik. Aykırı değerleri filtreleyerek, verileriniz artık daha tutarlı ve anlaşılır hale geldi.
+
+
+
+Kanat açıklığı açısından daha temiz bir veri setine sahip olduğumuza göre, bu kuşlar hakkında daha fazla şey keşfedelim.
+
+Çizgi ve dağılım grafikleri, veri değerleri ve dağılımları hakkında bilgi gösterebilirken, bu veri setinde yer alan değerler hakkında düşünmek istiyoruz. Aşağıdaki miktarlarla ilgili soruları yanıtlamak için görselleştirmeler oluşturabilirsiniz:
+
+> Kuş kategorileri nelerdir ve sayıları nedir?
+> Hangi kuşlar nesli tükenmiş, tehlikede, nadir veya yaygındır?
+> Linnaeus'un terminolojisine göre çeşitli cins ve takımların sayısı nedir?
+## Çubuk grafiklerini keşfedin
+
+Çubuk grafikleri, verilerin gruplandırılmasını göstermeniz gerektiğinde pratiktir. Bu veri setinde hangi kuş kategorilerinin var olduğunu ve hangisinin sayı bakımından en yaygın olduğunu görelim.
+Filtrelenmiş veriler üzerinde bir çubuk grafiği oluşturalım.
+
+```r
+install.packages("dplyr")
+install.packages("tidyverse")
+
+library(lubridate)
+library(scales)
+library(dplyr)
+library(ggplot2)
+library(tidyverse)
+
+birds_filtered %>% group_by(Category) %>%
+ summarise(n=n(),
+ MinLength = mean(MinLength),
+ MaxLength = mean(MaxLength),
+ MinBodyMass = mean(MinBodyMass),
+ MaxBodyMass = mean(MaxBodyMass),
+ MinWingspan=mean(MinWingspan),
+ MaxWingspan=mean(MaxWingspan)) %>%
+ gather("key", "value", - c(Category, n)) %>%
+ ggplot(aes(x = Category, y = value, group = key, fill = key)) +
+ geom_bar(stat = "identity") +
+ scale_fill_manual(values = c("#D62728", "#FF7F0E", "#8C564B","#2CA02C", "#1F77B4", "#9467BD")) +
+ xlab("Category")+ggtitle("Birds of Minnesota")
+
+```
+Aşağıdaki kod parçasında, verileri manipüle etmek ve gruplamak için [dplyr](https://www.rdocumentation.org/packages/dplyr/versions/0.7.8) ve [lubridate](https://www.rdocumentation.org/packages/lubridate/versions/1.8.0) paketlerini yüklüyoruz. Daha sonra `ggplot2` paketini kullanarak bir çubuk grafik çiziyoruz ve farklı kategoriler için renkleri ve etiketleri belirtiyoruz.
+
+
+
+Ancak bu çubuk grafiği okunamaz çünkü çok fazla gruplandırılmamış veri var. Çizmek istediğiniz verileri seçmeniz gerekiyor, bu yüzden kuşların kategorilerine göre uzunluklarına bakalım.
+
+Verilerinizi yalnızca kuşların kategorisini içerecek şekilde filtreleyin.
+
+Birçok kategori olduğu için bu grafiği dikey olarak görüntüleyebilir ve tüm verileri hesaba katmak için yüksekliğini ayarlayabilirsiniz:
+
+```r
+birds_count<-dplyr::count(birds_filtered, Category, sort = TRUE)
+birds_count$Category <- factor(birds_count$Category, levels = birds_count$Category)
+ggplot(birds_count,aes(Category,n))+geom_bar(stat="identity")+coord_flip()
+```
+Önce `Category` sütunundaki benzersiz değerleri sayar ve ardından bunları yeni bir `birds_count` veri çerçevesine sıralarsınız. Bu sıralanmış veriler aynı seviyede faktörlenir, böylece sıralı bir şekilde çizilir. `ggplot2` kullanarak verileri bir çubuk grafikte çizersiniz. `coord_flip()` yatay çubuklar çizer.
+
+
+
+Bu çubuk grafiği, her kategorideki kuş sayısının iyi bir görünümünü sunar. Bir bakışta, bu bölgedeki en büyük kuş sayısının Ördekler/Kazlar/Su Kuşları kategorisinde olduğunu görüyorsunuz. Minnesota '10.000 gölün ülkesi' olduğu için bu şaşırtıcı değil!
+
+✅ Bu veri setinde başka hangi sayımları deneyebilirsiniz? Sizi şaşırtan bir şey var mı?
+
+## Verileri karşılaştırma
+
+Yeni eksenler oluşturarak gruplandırılmış verilerin farklı karşılaştırmalarını deneyebilirsiniz. Bir kuşun kategorisine göre Maksimum Uzunluğunu karşılaştırmayı deneyin:
+
+```r
+birds_grouped <- birds_filtered %>%
+ group_by(Category) %>%
+ summarise(
+ MaxLength = max(MaxLength, na.rm = T),
+ MinLength = max(MinLength, na.rm = T)
+ ) %>%
+ arrange(Category)
+
+ggplot(birds_grouped,aes(Category,MaxLength))+geom_bar(stat="identity")+coord_flip()
+```
+`birds_filtered` verilerini `Category`'ye göre gruplar ve ardından bir çubuk grafik çizersiniz.
+
+
+
+Burada şaşırtıcı bir şey yok: sinek kuşlarının Maksimum Uzunluğu, Pelikanlar veya Kazlarla karşılaştırıldığında en azdır. Verilerin mantıklı olması güzel bir şey!
+
+Çubuk grafiklerin daha ilginç görselleştirmelerini, verileri üst üste bindirerek oluşturabilirsiniz. Bir kuş kategorisinde Minimum ve Maksimum Uzunluğu üst üste bindirelim:
+
+```r
+ggplot(data=birds_grouped, aes(x=Category)) +
+ geom_bar(aes(y=MaxLength), stat="identity", position ="identity", fill='blue') +
+ geom_bar(aes(y=MinLength), stat="identity", position="identity", fill='orange')+
+ coord_flip()
+```
+
+
+## 🚀 Meydan Okuma
+
+Bu kuş veri seti, belirli bir ekosistemdeki farklı kuş türleri hakkında zengin bilgiler sunar. İnternette araştırma yapın ve başka kuş odaklı veri setleri bulabilir misiniz bir bakın. Bu kuşlar etrafında grafikler ve çizimler oluşturarak farkında olmadığınız gerçekleri keşfetmeye çalışın.
+## [Ders Sonrası Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/17)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bu ilk ders, miktarları görselleştirmek için `ggplot2` kullanımı hakkında size bazı bilgiler verdi. Veri görselleştirme için başka yollarla çalışmak hakkında araştırma yapın. [Lattice](https://stat.ethz.ch/R-manual/R-devel/library/lattice/html/Lattice.html) ve [Plotly](https://github.com/plotly/plotly.R#readme) gibi diğer paketleri kullanarak görselleştirebileceğiniz veri setlerini araştırın ve keşfedin.
+
+## Ödev
+[Çizgiler, Dağılımlar ve Çubuklar](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı bir yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/09-visualization-quantities/assignment.md b/translations/tr/3-Data-Visualization/R/09-visualization-quantities/assignment.md
new file mode 100644
index 00000000..510f1ed1
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/09-visualization-quantities/assignment.md
@@ -0,0 +1,25 @@
+
+# Çizgiler, Dağılımlar ve Çubuklar
+
+## Talimatlar
+
+Bu derste, bu veri setiyle ilgili ilginç gerçekleri göstermek için çizgi grafikleri, dağılım grafikleri ve çubuk grafiklerle çalıştınız. Bu ödevde, belirli bir kuş türü hakkında bir gerçeği keşfetmek için veri setine daha derinlemesine dalın. Örneğin, Kar Kazları hakkında bulabildiğiniz tüm ilginç verileri görselleştiren bir betik oluşturun. Not defterinizde bir hikaye anlatmak için yukarıda belirtilen üç grafiği kullanın.
+
+## Değerlendirme Kriterleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekli
+--- | --- | --- |
+İyi açıklamalar, sağlam bir hikaye anlatımı ve çekici grafiklerle bir betik sunulmuş | Betik bu unsurlardan birini eksik içeriyor | Betik bu unsurlardan ikisini eksik içeriyor
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/10-visualization-distributions/README.md b/translations/tr/3-Data-Visualization/R/10-visualization-distributions/README.md
new file mode 100644
index 00000000..17dfe6af
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/10-visualization-distributions/README.md
@@ -0,0 +1,184 @@
+
+# Dağılımları Görselleştirme
+
+| ](https://github.com/microsoft/Data-Science-For-Beginners/blob/main/sketchnotes/10-Visualizing-Distributions.png)|
+|:---:|
+| Dağılımları Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Önceki derste, Minnesota kuşlarıyla ilgili bir veri kümesi hakkında bazı ilginç bilgiler öğrendiniz. Aykırı değerleri görselleştirerek hatalı verileri buldunuz ve kuş kategorileri arasındaki maksimum uzunluk farklarına baktınız.
+
+## [Ders Öncesi Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/18)
+## Kuş veri kümesini keşfedin
+
+Verilere derinlemesine bakmanın bir başka yolu, verilerin bir eksen boyunca nasıl organize edildiğini incelemek, yani dağılımını incelemektir. Örneğin, bu veri kümesinde Minnesota kuşlarının maksimum kanat açıklığı veya maksimum vücut kütlesinin genel dağılımını öğrenmek isteyebilirsiniz.
+
+Bu veri kümesindeki verilerin dağılımları hakkında bazı bilgiler keşfedelim. R konsolunuzda `ggplot2` ve veri tabanını içe aktarın. Önceki konuda olduğu gibi veri tabanından aykırı değerleri kaldırın.
+
+```r
+library(ggplot2)
+
+birds <- read.csv("../../data/birds.csv",fileEncoding="UTF-8-BOM")
+
+birds_filtered <- subset(birds, MaxWingspan < 500)
+head(birds_filtered)
+```
+| | İsim | BilimselAd | Kategori | Takım | Aile | Cins | KorumaDurumu | MinUzunluk | MaxUzunluk | MinVücutKütlesi | MaxVücutKütlesi | MinKanatAçıklığı | MaxKanatAçıklığı |
+| ---: | :--------------------------- | :--------------------- | :-------------------- | :------------ | :------- | :---------- | :----------------- | ----------: | ----------: | --------------: | --------------: | --------------: | --------------: |
+| 0 | Kara karınlı ıslıkçı ördek | Dendrocygna autumnalis | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 47 | 56 | 652 | 1020 | 76 | 94 |
+| 1 | Sarımsı ıslıkçı ördek | Dendrocygna bicolor | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Dendrocygna | LC | 45 | 53 | 712 | 1050 | 85 | 93 |
+| 2 | Kar kazı | Anser caerulescens | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 79 | 2050 | 4050 | 135 | 165 |
+| 3 | Ross'un kazı | Anser rossii | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 57.3 | 64 | 1066 | 1567 | 113 | 116 |
+| 4 | Büyük beyaz alınlı kaz | Anser albifrons | Ördekler/Kazlar/Su Kuşları | Anseriformes | Anatidae | Anser | LC | 64 | 81 | 1930 | 3310 | 130 | 165 |
+
+Genel olarak, verilerin nasıl dağıldığını hızlıca görmek için önceki derste yaptığımız gibi bir dağılım grafiği kullanabilirsiniz:
+
+```r
+ggplot(data=birds_filtered, aes(x=Order, y=MaxLength,group=1)) +
+ geom_point() +
+ ggtitle("Max Length per order") + coord_flip()
+```
+
+
+Bu, her kuş takımına göre vücut uzunluğunun genel dağılımını gösterir, ancak gerçek dağılımları göstermek için en uygun yol değildir. Bu görev genellikle bir Histogram oluşturarak gerçekleştirilir.
+
+## Histogramlarla Çalışmak
+
+`ggplot2`, Histogramlar kullanarak veri dağılımını görselleştirmek için çok iyi yöntemler sunar. Bu tür grafik, çubukların yükselip alçalmasıyla dağılımın görülebildiği bir çubuk grafik gibidir. Bir histogram oluşturmak için sayısal verilere ihtiyacınız vardır. Histogram oluşturmak için, grafiğin türünü 'hist' olarak tanımlayarak bir grafik çizebilirsiniz. Bu grafik, tüm veri kümesinin MaxBodyMass dağılımını gösterir. Verileri daha küçük bölmelere ayırarak, verilerin değerlerinin dağılımını gösterebilir:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=10)+ylab('Frequency')
+```
+
+
+Gördüğünüz gibi, bu veri kümesindeki 400'den fazla kuşun çoğu, Max Body Mass değerinin 2000'in altında olduğu aralığa düşmektedir. `bins` parametresini daha yüksek bir sayıya, örneğin 30'a değiştirerek veriler hakkında daha fazla bilgi edinin:
+
+```r
+ggplot(data = birds_filtered, aes(x = MaxBodyMass)) + geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+Bu grafik, dağılımı biraz daha ayrıntılı bir şekilde gösterir. Daha az sola eğimli bir grafik, yalnızca belirli bir aralıktaki verileri seçerek oluşturulabilir:
+
+Verilerinizi filtreleyerek vücut kütlesi 60'ın altında olan kuşları alın ve 30 `bins` gösterin:
+
+```r
+birds_filtered_1 <- subset(birds_filtered, MaxBodyMass > 1 & MaxBodyMass < 60)
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_histogram(bins=30)+ylab('Frequency')
+```
+
+
+
+✅ Diğer filtreleri ve veri noktalarını deneyin. Verilerin tam dağılımını görmek için, etiketli dağılımları göstermek için `['MaxBodyMass']` filtresini kaldırın.
+
+Histogram, bazı güzel renk ve etiketleme geliştirmeleri de sunar:
+
+İki dağılım arasındaki ilişkiyi karşılaştırmak için 2D bir histogram oluşturun. `MaxBodyMass` ve `MaxLength`'i karşılaştıralım. `ggplot2`, parlak renkler kullanarak yakınsama göstermenin yerleşik bir yolunu sunar:
+
+```r
+ggplot(data=birds_filtered_1, aes(x=MaxBodyMass, y=MaxLength) ) +
+ geom_bin2d() +scale_fill_continuous(type = "viridis")
+```
+Bu iki öğe arasında beklenen bir eksen boyunca bir korelasyon olduğu ve bir noktada özellikle güçlü bir yakınsama olduğu görülüyor:
+
+
+
+Histogramlar, varsayılan olarak sayısal verilerle iyi çalışır. Peki ya metin verilerine göre dağılımları görmek isterseniz?
+## Metin verilerini kullanarak veri kümesindeki dağılımları keşfedin
+
+Bu veri kümesi ayrıca kuş kategorisi, cinsi, türü ve ailesi ile koruma durumu hakkında iyi bilgiler içerir. Bu koruma bilgilerini inceleyelim. Kuşların koruma durumlarına göre dağılımı nedir?
+
+> ✅ Veri kümesinde, koruma durumunu tanımlamak için birkaç kısaltma kullanılmıştır. Bu kısaltmalar, türlerin durumunu kataloglayan bir organizasyon olan [IUCN Kırmızı Liste Kategorileri](https://www.iucnredlist.org/) tarafından sağlanmıştır.
+>
+> - CR: Kritik Tehlike Altında
+> - EN: Tehlike Altında
+> - EX: Soyu Tükenmiş
+> - LC: En Az Endişe
+> - NT: Tehdit Altında
+> - VU: Hassas
+
+Bunlar metin tabanlı değerlerdir, bu nedenle bir histogram oluşturmak için bir dönüşüm yapmanız gerekecektir. Filtrelenmiş kuşlar veri çerçevesini kullanarak, koruma durumunu Minimum Kanat Açıklığı ile birlikte gösterin. Ne görüyorsunuz?
+
+```r
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EX'] <- 'x1'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'CR'] <- 'x2'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'EN'] <- 'x3'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'NT'] <- 'x4'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'VU'] <- 'x5'
+birds_filtered_1$ConservationStatus[birds_filtered_1$ConservationStatus == 'LC'] <- 'x6'
+
+ggplot(data=birds_filtered_1, aes(x = MinWingspan, fill = ConservationStatus)) +
+ geom_histogram(position = "identity", alpha = 0.4, bins = 20) +
+ scale_fill_manual(name="Conservation Status",values=c("red","green","blue","pink"),labels=c("Endangered","Near Threathened","Vulnerable","Least Concern"))
+```
+
+
+
+Minimum kanat açıklığı ile koruma durumu arasında iyi bir korelasyon görünmüyor. Bu yöntemi kullanarak veri kümesinin diğer öğelerini test edin. Farklı filtreler de deneyebilirsiniz. Herhangi bir korelasyon buluyor musunuz?
+
+## Yoğunluk Grafikleri
+
+Şimdiye kadar incelediğimiz histogramların 'basamaklı' olduğunu ve düzgün bir yay şeklinde akmadığını fark etmiş olabilirsiniz. Daha düzgün bir yoğunluk grafiği göstermek için bir yoğunluk grafiği deneyebilirsiniz.
+
+Hadi yoğunluk grafikleriyle çalışalım!
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MinWingspan)) +
+ geom_density()
+```
+
+
+Grafiğin, Minimum Kanat Açıklığı verileri için önceki grafiği nasıl yansıttığını görebilirsiniz; sadece biraz daha düzgün. İkinci grafikte oluşturduğunuz o keskin MaxBodyMass çizgisini yeniden oluşturup bu yöntemle çok iyi bir şekilde düzeltebilirsiniz:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density()
+```
+
+
+Çok düzgün ama aşırı düzgün olmayan bir çizgi istiyorsanız, `adjust` parametresini düzenleyin:
+
+```r
+ggplot(data = birds_filtered_1, aes(x = MaxBodyMass)) +
+ geom_density(adjust = 1/5)
+```
+
+
+✅ Bu tür grafik için mevcut parametreler hakkında okuyun ve deneyin!
+
+Bu tür grafikler, açıklayıcı görselleştirmeler sunar. Örneğin, birkaç satır kodla her kuş takımına göre maksimum vücut kütlesi yoğunluğunu gösterebilirsiniz:
+
+```r
+ggplot(data=birds_filtered_1,aes(x = MaxBodyMass, fill = Order)) +
+ geom_density(alpha=0.5)
+```
+
+
+## 🚀 Meydan Okuma
+
+Histogramlar, temel dağılım grafikleri, çubuk grafikler veya çizgi grafiklerden daha sofistike bir grafik türüdür. İnternette histogramların iyi kullanımlarını bulmak için bir arama yapın. Nasıl kullanıldıklarını, neyi gösterdiklerini ve hangi alanlarda veya araştırma konularında kullanıldıklarını inceleyin.
+
+## [Ders Sonrası Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/19)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bu derste, `ggplot2` kullandınız ve daha sofistike grafikler göstermeye başladınız. `geom_density_2d()` hakkında araştırma yapın, bu "bir veya daha fazla boyutta sürekli olasılık yoğunluğu eğrisi"dir. Nasıl çalıştığını anlamak için [belgelere](https://ggplot2.tidyverse.org/reference/geom_density_2d.html) göz atın.
+
+## Ödev
+
+[Becerilerinizi uygulayın](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/10-visualization-distributions/assignment.md b/translations/tr/3-Data-Visualization/R/10-visualization-distributions/assignment.md
new file mode 100644
index 00000000..58e25ce4
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/10-visualization-distributions/assignment.md
@@ -0,0 +1,25 @@
+
+# Becerilerinizi Uygulayın
+
+## Talimatlar
+
+Şimdiye kadar, Minnesota kuşları veri setiyle çalışarak kuş miktarları ve nüfus yoğunluğu hakkında bilgi keşfettiniz. Bu teknikleri uygulama pratiği yapmak için [Kaggle](https://www.kaggle.com/) gibi bir kaynaktan farklı bir veri seti deneyin. Bu veri seti hakkında bir hikaye anlatan bir R scripti oluşturun ve bunu tartışırken histogramlar kullanmayı unutmayın.
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | --- |
+Bu veri seti hakkında açıklamalar, kaynağı dahil olmak üzere sunulan bir script ve veriler hakkında bilgi keşfetmek için en az 5 histogram kullanılmıştır. | Eksik açıklamalar veya hatalar içeren bir script sunulmuştur. | Açıklamalar olmadan ve hatalar içeren bir script sunulmuştur.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, bağlayıcı ve nihai kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/11-visualization-proportions/README.md b/translations/tr/3-Data-Visualization/R/11-visualization-proportions/README.md
new file mode 100644
index 00000000..f97fab28
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/11-visualization-proportions/README.md
@@ -0,0 +1,201 @@
+
+# Oranları Görselleştirme
+
+| ](../../../sketchnotes/11-Visualizing-Proportions.png)|
+|:---:|
+|Oranları Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Bu derste, mantarlarla ilgili bir veri seti kullanarak oranları görselleştireceksiniz. Örneğin, bir veri setinde kaç farklı mantar türü bulunduğunu inceleyebilirsiniz. Agaricus ve Lepiota ailelerine ait 23 tür lamelli mantar hakkında bilgiler içeren Audubon'dan alınmış bir veri setini keşfedeceğiz. Aşağıdaki gibi lezzetli görselleştirmelerle denemeler yapacaksınız:
+
+- Pasta grafikleri 🥧
+- Donut grafikleri 🍩
+- Waffle grafikleri 🧇
+
+> 💡 Microsoft Research tarafından geliştirilen [Charticulator](https://charticulator.com) adlı çok ilginç bir proje, veri görselleştirmeleri için ücretsiz bir sürükle-bırak arayüzü sunuyor. Bu projede, mantar veri setini kullandıkları bir eğitim de var! Böylece hem veriyi keşfedebilir hem de kütüphaneyi öğrenebilirsiniz: [Charticulator eğitimi](https://charticulator.com/tutorials/tutorial4.html).
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/20)
+
+## Mantarlarınızı Tanıyın 🍄
+
+Mantarlar oldukça ilginçtir. Hadi bir veri seti içe aktararak onları inceleyelim:
+
+```r
+mushrooms = read.csv('../../data/mushrooms.csv')
+head(mushrooms)
+```
+Bir tablo çıktı olarak basılır ve analiz için harika veriler içerir:
+
+
+| sınıf | şapka şekli | şapka yüzeyi | şapka rengi | morarma | koku | lamel bağlantısı | lamel aralığı | lamel boyutu | lamel rengi | sap şekli | sap kökü | halka üstü sap yüzeyi | halka altı sap yüzeyi | halka üstü sap rengi | halka altı sap rengi | örtü türü | örtü rengi | halka sayısı | halka türü | spor baskı rengi | popülasyon | habitat |
+| --------- | --------- | ----------- | --------- | ------- | ------- | --------------- | ------------ | --------- | ---------- | ----------- | ---------- | ------------------------ | ------------------------ | ---------------------- | ---------------------- | --------- | ---------- | ----------- | --------- | ----------------- | ---------- | ------- |
+| Zehirli | Konveks | Düz | Kahverengi | Morarma | Keskin | Serbest | Yakın | Dar | Siyah | Genişleyen | Eşit | Düz | Düz | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkık | Siyah | Dağınık | Şehir |
+| Yenilebilir | Konveks | Düz | Sarı | Morarma | Badem | Serbest | Yakın | Geniş | Siyah | Genişleyen | Kulüp | Düz | Düz | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkık | Kahverengi | Çok | Çimenlik |
+| Yenilebilir | Çan | Düz | Beyaz | Morarma | Anason | Serbest | Yakın | Geniş | Kahverengi | Genişleyen | Kulüp | Düz | Düz | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkık | Kahverengi | Çok | Çayır |
+| Zehirli | Konveks | Pullu | Beyaz | Morarma | Keskin | Serbest | Yakın | Dar | Kahverengi | Genişleyen | Eşit | Düz | Düz | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkık | Siyah | Dağınık | Şehir
+| Yenilebilir | Konveks |Düz | Yeşil | Morarma Yok| Yok |Serbest | Kalabalık | Geniş | Siyah | Daralan | Eşit | Düz | Düz | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Geçici | Kahverengi | Bol | Çimenlik
+|Yenilebilir | Konveks | Pullu | Sarı | Morarma | Badem | Serbest | Yakın | Geniş | Kahverengi | Genişleyen | Kulüp | Düz | Düz | Beyaz | Beyaz | Kısmi | Beyaz | Bir | Sarkık | Siyah | Çok | Çimenlik
+
+Hemen fark ediyorsunuz ki tüm veriler metinsel. Bu verileri bir grafik oluşturmak için dönüştürmeniz gerekecek. Aslında, verilerin çoğu bir nesne olarak temsil ediliyor:
+
+```r
+names(mushrooms)
+```
+
+Çıktı şu şekilde:
+
+```output
+[1] "class" "cap.shape"
+ [3] "cap.surface" "cap.color"
+ [5] "bruises" "odor"
+ [7] "gill.attachment" "gill.spacing"
+ [9] "gill.size" "gill.color"
+[11] "stalk.shape" "stalk.root"
+[13] "stalk.surface.above.ring" "stalk.surface.below.ring"
+[15] "stalk.color.above.ring" "stalk.color.below.ring"
+[17] "veil.type" "veil.color"
+[19] "ring.number" "ring.type"
+[21] "spore.print.color" "population"
+[23] "habitat"
+```
+Bu verileri alın ve 'sınıf' sütununu bir kategoriye dönüştürün:
+
+```r
+library(dplyr)
+grouped=mushrooms %>%
+ group_by(class) %>%
+ summarise(count=n())
+```
+
+
+Şimdi, mantar verilerini yazdırırsanız, zehirli/yenilebilir sınıfına göre kategorilere ayrıldığını görebilirsiniz:
+```r
+View(grouped)
+```
+
+
+| sınıf | sayı |
+| --------- | --------- |
+| Yenilebilir | 4208 |
+| Zehirli| 3916 |
+
+
+
+Bu tablodaki sırayı takip ederek sınıf kategori etiketlerinizi oluşturursanız, bir pasta grafiği oluşturabilirsiniz.
+
+## Pasta!
+
+```r
+pie(grouped$count,grouped$class, main="Edible?")
+```
+İşte, bu iki mantar sınıfına göre verilerin oranlarını gösteren bir pasta grafiği. Etiketlerin sırasını doğru almak oldukça önemlidir, özellikle burada, bu yüzden etiket dizisinin oluşturulma sırasını doğruladığınızdan emin olun!
+
+
+
+## Donutlar!
+
+Biraz daha görsel olarak ilginç bir pasta grafiği, ortasında bir delik olan bir donut grafiğidir. Verilerimize bu yöntemle bakalım.
+
+Mantarların büyüdüğü çeşitli habitatlara bir göz atın:
+
+```r
+library(dplyr)
+habitat=mushrooms %>%
+ group_by(habitat) %>%
+ summarise(count=n())
+View(habitat)
+```
+Çıktı şu şekilde:
+| habitat| sayı |
+| --------- | --------- |
+| Çimenlik | 2148 |
+| Yapraklar| 832 |
+| Çayırlar | 292 |
+| Yollar| 1144 |
+| Şehir | 368 |
+| Atık| 192 |
+| Odun| 3148 |
+
+
+Burada, verilerinizi habitatlara göre grupluyorsunuz. 7 habitat listelenmiş, bu yüzden donut grafiğiniz için bunları etiket olarak kullanın:
+
+```r
+library(ggplot2)
+library(webr)
+PieDonut(habitat, aes(habitat, count=count))
+```
+
+
+
+Bu kod iki kütüphaneyi kullanır - ggplot2 ve webr. webr kütüphanesinin PieDonut fonksiyonunu kullanarak kolayca bir donut grafiği oluşturabilirsiniz!
+
+R'de donut grafikleri yalnızca ggplot2 kütüphanesi kullanılarak da yapılabilir. Daha fazla bilgi edinmek için [buraya](https://www.r-graph-gallery.com/128-ring-or-donut-plot.html) göz atabilir ve kendiniz deneyebilirsiniz.
+
+Artık verilerinizi nasıl gruplandıracağınızı ve ardından pasta veya donut olarak nasıl göstereceğinizi bildiğinize göre, diğer grafik türlerini keşfedebilirsiniz. Waffle grafiğini deneyin, bu da miktarları keşfetmenin farklı bir yoludur.
+## Waffle!
+
+'Waffle' türü bir grafik, miktarları karelerden oluşan 2D bir dizi olarak görselleştirmenin farklı bir yoludur. Bu veri setindeki mantar şapka renklerinin farklı miktarlarını görselleştirmeyi deneyin. Bunu yapmak için [waffle](https://cran.r-project.org/web/packages/waffle/waffle.pdf) adlı bir yardımcı kütüphane yüklemeniz ve görselleştirmenizi oluşturmak için kullanmanız gerekir:
+
+```r
+install.packages("waffle", repos = "https://cinc.rud.is")
+```
+
+Verilerinizden bir segment seçin ve gruplandırın:
+
+```r
+library(dplyr)
+cap_color=mushrooms %>%
+ group_by(cap.color) %>%
+ summarise(count=n())
+View(cap_color)
+```
+
+Etiketler oluşturup verilerinizi gruplandırarak bir waffle grafiği oluşturun:
+
+```r
+library(waffle)
+names(cap_color$count) = paste0(cap_color$cap.color)
+waffle((cap_color$count/10), rows = 7, title = "Waffle Chart")+scale_fill_manual(values=c("brown", "#F0DC82", "#D2691E", "green",
+ "pink", "purple", "red", "grey",
+ "yellow","white"))
+```
+
+Bir waffle grafiği kullanarak, bu mantar veri setindeki şapka renklerinin oranlarını açıkça görebilirsiniz. İlginç bir şekilde, birçok yeşil şapkalı mantar var!
+
+
+
+Bu derste, oranları görselleştirmenin üç yolunu öğrendiniz. Öncelikle, verilerinizi kategorilere ayırmanız ve ardından verileri göstermek için en iyi yolu seçmeniz gerekiyor - pasta, donut veya waffle. Hepsi lezzetli ve kullanıcıya bir veri setinin anlık görüntüsünü sunar.
+
+## 🚀 Meydan Okuma
+
+Bu lezzetli grafikleri [Charticulator](https://charticulator.com) ile yeniden oluşturmaya çalışın.
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/21)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bazen pasta, donut veya waffle grafiği kullanmanın ne zaman uygun olduğu açık olmayabilir. Bu konuda okumak için bazı makaleler:
+
+https://www.beautiful.ai/blog/battle-of-the-charts-pie-chart-vs-donut-chart
+
+https://medium.com/@hypsypops/pie-chart-vs-donut-chart-showdown-in-the-ring-5d24fd86a9ce
+
+https://www.mit.edu/~mbarker/formula1/f1help/11-ch-c6.htm
+
+https://medium.datadriveninvestor.com/data-visualization-done-the-right-way-with-tableau-waffle-chart-fdf2a19be402
+
+Bu zor kararla ilgili daha fazla bilgi bulmak için araştırma yapın.
+## Ödev
+
+[Excel'de Deneyin](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/12-visualization-relationships/README.md b/translations/tr/3-Data-Visualization/R/12-visualization-relationships/README.md
new file mode 100644
index 00000000..e59d8503
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/12-visualization-relationships/README.md
@@ -0,0 +1,177 @@
+
+# İlişkileri Görselleştirme: Bal Hakkında Her Şey 🍯
+
+| ](../../../sketchnotes/12-Visualizing-Relationships.png)|
+|:---:|
+|İlişkileri Görselleştirme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Araştırmamızın doğa odaklı temasına devam ederek, Amerika Birleşik Devletleri Tarım Bakanlığı'ndan ([United States Department of Agriculture](https://www.nass.usda.gov/About_NASS/index.php)) alınan bir veri setine göre farklı bal türleri arasındaki ilişkileri göstermek için ilginç görselleştirmeler keşfedelim.
+
+Yaklaşık 600 öğeden oluşan bu veri seti, birçok ABD eyaletindeki bal üretimini gösteriyor. Örneğin, bir eyaletteki kolonilerin sayısını, koloni başına verimi, toplam üretimi, stokları, pound başına fiyatı ve 1998-2012 yılları arasında üretilen balın değerini inceleyebilirsiniz. Her eyalet için her yıl bir satır olacak şekilde düzenlenmiştir.
+
+Bir eyaletin yıllık üretimi ile o eyaletteki bal fiyatı arasındaki ilişkiyi görselleştirmek ilginç olabilir. Alternatif olarak, eyaletlerin koloni başına bal verimi arasındaki ilişkiyi görselleştirebilirsiniz. Bu zaman aralığı, ilk olarak 2006 yılında görülen 'Koloni Çöküş Bozukluğu' (CCD) (http://npic.orst.edu/envir/ccd.html) gibi yıkıcı bir dönemi kapsadığı için çalışılması anlamlı bir veri setidir. 🐝
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/22)
+
+Bu derste, daha önce kullandığınız ggplot2 kütüphanesini değişkenler arasındaki ilişkileri görselleştirmek için kullanabilirsiniz. Özellikle ilginç olan, ggplot2'nin `geom_point` ve `qplot` fonksiyonlarını kullanarak '[istatistiksel ilişkileri](https://ggplot2.tidyverse.org/)' hızlı bir şekilde görselleştiren dağılım grafikleri ve çizgi grafikleri oluşturma yeteneğidir. Bu, veri bilimcilerin değişkenlerin birbirleriyle nasıl ilişkili olduğunu daha iyi anlamalarını sağlar.
+
+## Dağılım Grafikleri
+
+Bal fiyatının eyalet bazında yıllar içinde nasıl değiştiğini göstermek için bir dağılım grafiği kullanın. ggplot2, `ggplot` ve `geom_point` kullanarak eyalet verilerini gruplar ve hem kategorik hem de sayısal veriler için veri noktalarını görüntüler.
+
+Hadi verileri ve Seaborn'u içe aktararak başlayalım:
+
+```r
+honey=read.csv('../../data/honey.csv')
+head(honey)
+```
+Bal verilerinin yıl ve pound başına fiyat gibi birkaç ilginç sütuna sahip olduğunu fark ediyorsunuz. Bu verileri ABD eyaletlerine göre gruplayarak keşfedelim:
+
+| eyalet | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | -------- | ---------- | --------- | ---- |
+| AL | 16000 | 71 | 1136000 | 159000 | 0.72 | 818000 | 1998 |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AR | 53000 | 65 | 3445000 | 1688000 | 0.59 | 2033000 | 1998 |
+| CA | 450000 | 83 | 37350000 | 12326000 | 0.62 | 23157000 | 1998 |
+| CO | 27000 | 72 | 1944000 | 1594000 | 0.7 | 1361000 | 1998 |
+| FL | 230000 | 98 |22540000 | 4508000 | 0.64 | 14426000 | 1998 |
+
+Balın pound başına fiyatı ile ABD'deki üretim eyaleti arasındaki ilişkiyi göstermek için temel bir dağılım grafiği oluşturun. `y` eksenini tüm eyaletleri gösterecek kadar uzun yapın:
+
+```r
+library(ggplot2)
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(colour = "blue")
+```
+
+
+Şimdi, aynı verileri yıllar içinde fiyatın nasıl değiştiğini göstermek için bal renk şemasıyla gösterin. Bunu, yıllar içinde değişimi göstermek için 'scale_color_gradientn' parametresini ekleyerek yapabilirsiniz:
+
+> ✅ [scale_color_gradientn](https://www.rdocumentation.org/packages/ggplot2/versions/0.9.1/topics/scale_colour_gradientn) hakkında daha fazla bilgi edinin - güzel bir gökkuşağı renk şeması deneyin!
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state, color=year)) +
+ geom_point()+scale_color_gradientn(colours = colorspace::heat_hcl(7))
+```
+
+
+Bu renk şeması değişikliğiyle, pound başına bal fiyatında yıllar içinde açık bir ilerleme olduğunu görebilirsiniz. Gerçekten de, verilerde bir örnek seti doğrulamak için (örneğin Arizona'yı seçin) yıllar içinde fiyat artışlarının bir modelini birkaç istisna dışında görebilirsiniz:
+
+| eyalet | numcol | yieldpercol | totalprod | stocks | priceperlb | prodvalue | year |
+| ----- | ------ | ----------- | --------- | ------- | ---------- | --------- | ---- |
+| AZ | 55000 | 60 | 3300000 | 1485000 | 0.64 | 2112000 | 1998 |
+| AZ | 52000 | 62 | 3224000 | 1548000 | 0.62 | 1999000 | 1999 |
+| AZ | 40000 | 59 | 2360000 | 1322000 | 0.73 | 1723000 | 2000 |
+| AZ | 43000 | 59 | 2537000 | 1142000 | 0.72 | 1827000 | 2001 |
+| AZ | 38000 | 63 | 2394000 | 1197000 | 1.08 | 2586000 | 2002 |
+| AZ | 35000 | 72 | 2520000 | 983000 | 1.34 | 3377000 | 2003 |
+| AZ | 32000 | 55 | 1760000 | 774000 | 1.11 | 1954000 | 2004 |
+| AZ | 36000 | 50 | 1800000 | 720000 | 1.04 | 1872000 | 2005 |
+| AZ | 30000 | 65 | 1950000 | 839000 | 0.91 | 1775000 | 2006 |
+| AZ | 30000 | 64 | 1920000 | 902000 | 1.26 | 2419000 | 2007 |
+| AZ | 25000 | 64 | 1600000 | 336000 | 1.26 | 2016000 | 2008 |
+| AZ | 20000 | 52 | 1040000 | 562000 | 1.45 | 1508000 | 2009 |
+| AZ | 24000 | 77 | 1848000 | 665000 | 1.52 | 2809000 | 2010 |
+| AZ | 23000 | 53 | 1219000 | 427000 | 1.55 | 1889000 | 2011 |
+| AZ | 22000 | 46 | 1012000 | 253000 | 1.79 | 1811000 | 2012 |
+
+Bu ilerlemeyi görselleştirmenin başka bir yolu, renk yerine boyut kullanmaktır. Renk körü kullanıcılar için bu daha iyi bir seçenek olabilir. Fiyat artışını nokta çevresinin büyüklüğüyle göstermek için görselleştirmenizi düzenleyin:
+
+```r
+ggplot(honey, aes(x = priceperlb, y = state)) +
+ geom_point(aes(size = year),colour = "blue") +
+ scale_size_continuous(range = c(0.25, 3))
+```
+Noktaların boyutlarının kademeli olarak arttığını görebilirsiniz.
+
+
+
+Bu basit bir arz ve talep meselesi mi? İklim değişikliği ve koloni çöküşü gibi faktörler nedeniyle, yıllar içinde satın alınabilecek daha az bal mı var ve bu nedenle fiyat mı artıyor?
+
+Bu veri setindeki bazı değişkenler arasında bir korelasyon bulmak için çizgi grafiklerini keşfedelim.
+
+## Çizgi Grafikleri
+
+Soru: Balın pound başına fiyatında yıllar içinde açık bir artış var mı? Bunu en kolay şekilde tek bir çizgi grafiği oluşturarak keşfedebilirsiniz:
+
+```r
+qplot(honey$year,honey$priceperlb, geom='smooth', span =0.5, xlab = "year",ylab = "priceperlb")
+```
+Cevap: Evet, 2003 yılı civarındaki bazı istisnalar dışında:
+
+
+
+Soru: Peki, 2003 yılında bal arzında bir artış görebiliyor muyuz? Yıllar içinde toplam üretime bakarsanız ne görürsünüz?
+
+```python
+qplot(honey$year,honey$totalprod, geom='smooth', span =0.5, xlab = "year",ylab = "totalprod")
+```
+
+
+
+Cevap: Pek değil. Toplam üretime bakarsanız, aslında o yıl artmış gibi görünüyor, ancak genel olarak bu yıllarda üretilen bal miktarı düşüşte.
+
+Soru: Bu durumda, 2003 civarındaki bal fiyatındaki artışa ne sebep olmuş olabilir?
+
+Bunu keşfetmek için bir facet grid (yüzey ızgarası) oluşturabilirsiniz.
+
+## Facet Grid'ler
+
+Facet grid'ler veri setinizin bir yönünü (bizim durumumuzda 'yıl' seçebilirsiniz) alır ve seçtiğiniz x ve y koordinatları için daha kolay görsel karşılaştırma yapmak üzere her bir facet için bir grafik oluşturur. 2003 yılı bu tür bir karşılaştırmada öne çıkıyor mu?
+
+[ggplot2'nin dokümantasyonunda](https://ggplot2.tidyverse.org/reference/facet_wrap.html) önerildiği gibi `facet_wrap` kullanarak bir facet grid oluşturun.
+
+```r
+ggplot(honey, aes(x=yieldpercol, y = numcol,group = 1)) +
+ geom_line() + facet_wrap(vars(year))
+```
+Bu görselleştirmede, koloni başına verim ve koloni sayısını yıllar içinde yan yana, sütunlar için 3 olarak ayarlanmış bir wrap ile karşılaştırabilirsiniz:
+
+
+
+Bu veri seti için, eyaletler ve yıllar arasında koloni sayısı ve verim açısından dikkat çeken bir şey yok. Bu iki değişken arasında bir korelasyon bulmanın farklı bir yolu var mı?
+
+## Çift Çizgi Grafikleri
+
+R'nin `par` ve `plot` fonksiyonlarını kullanarak iki çizgi grafiği üst üste bindirerek çoklu çizgi grafiği deneyin. x ekseninde yılı çizeceğiz ve iki y ekseni göstereceğiz. Yani, koloni başına verim ve koloni sayısını üst üste bindirerek göstereceğiz:
+
+```r
+par(mar = c(5, 4, 4, 4) + 0.3)
+plot(honey$year, honey$numcol, pch = 16, col = 2,type="l")
+par(new = TRUE)
+plot(honey$year, honey$yieldpercol, pch = 17, col = 3,
+ axes = FALSE, xlab = "", ylab = "",type="l")
+axis(side = 4, at = pretty(range(y2)))
+mtext("colony yield", side = 4, line = 3)
+```
+
+
+2003 yılı civarında göze çarpan bir şey olmasa da, bu dersi biraz daha mutlu bir notla bitirmemize olanak tanıyor: genel olarak azalan koloni sayısına rağmen, koloni sayısı sabitleniyor, ancak koloni başına verim azalıyor.
+
+Haydi arılar, devam edin!
+
+🐝❤️
+## 🚀 Meydan Okuma
+
+Bu derste, scatterplot'lar ve çizgi grid'lerinin diğer kullanımları hakkında biraz daha bilgi edindiniz, facet grid'ler dahil. Kendinize meydan okuyarak bu teknikleri kullanarak önceki derslerde kullandığınız farklı bir veri setiyle bir facet grid oluşturun. Bunları oluşturmanın ne kadar sürdüğünü ve bu teknikleri kullanırken kaç tane grid çizmeniz gerektiğine dikkat etmeniz gerektiğini not edin.
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/23)
+
+## İnceleme ve Kendi Kendine Çalışma
+
+Çizgi grafikleri basit veya oldukça karmaşık olabilir. [ggplot2 dokümantasyonunda](https://ggplot2.tidyverse.org/reference/geom_path.html#:~:text=geom_line()%20connects%20them%20in,which%20cases%20are%20connected%20together) çizgi grafikleri oluşturmanın çeşitli yolları hakkında biraz okuyun. Bu derste oluşturduğunuz çizgi grafiklerini dokümanlarda listelenen diğer yöntemlerle geliştirmeyi deneyin.
+## Ödev
+
+[Arı kovanına dalın](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/R/13-meaningful-vizualizations/README.md b/translations/tr/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
new file mode 100644
index 00000000..8d6e059f
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/R/13-meaningful-vizualizations/README.md
@@ -0,0 +1,182 @@
+
+# Anlamlı Görselleştirmeler Yapmak
+
+| ](../../../sketchnotes/13-MeaningfulViz.png)|
+|:---:|
+| Anlamlı Görselleştirmeler - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+> "Veriyi yeterince zorlayın, her şeyi itiraf eder." -- [Ronald Coase](https://en.wikiquote.org/wiki/Ronald_Coase)
+
+Bir veri bilimcisinin temel becerilerinden biri, sahip olduğunuz soruları yanıtlamaya yardımcı olacak anlamlı bir veri görselleştirmesi oluşturma yeteneğidir. Verilerinizi görselleştirmeden önce, önceki derslerde yaptığınız gibi temizlenmiş ve hazırlanmış olduğundan emin olmanız gerekir. Bundan sonra, verileri en iyi şekilde nasıl sunacağınızı belirlemeye başlayabilirsiniz.
+
+Bu derste şunları gözden geçireceksiniz:
+
+1. Doğru grafik türünü nasıl seçersiniz
+2. Yanıltıcı grafiklerden nasıl kaçınırsınız
+3. Renklerle nasıl çalışılır
+4. Grafiklerinizi okunabilirlik için nasıl şekillendirirsiniz
+5. Animasyonlu veya 3D grafik çözümleri nasıl oluşturulur
+6. Yaratıcı bir görselleştirme nasıl yapılır
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/24)
+
+## Doğru grafik türünü seçin
+
+Önceki derslerde, Matplotlib ve Seaborn kullanarak her türlü ilginç veri görselleştirmesi oluşturmayı denediniz. Genel olarak, sorduğunuz soruya uygun [doğru grafik türünü](https://chartio.com/learn/charts/how-to-select-a-data-vizualization/) bu tabloyu kullanarak seçebilirsiniz:
+
+| Yapmanız gereken: | Kullanmanız gereken: |
+| -------------------------- | ------------------------------- |
+| Zaman içindeki veri eğilimlerini gösterin | Çizgi |
+| Kategorileri karşılaştırın | Çubuk, Pasta |
+| Toplamları karşılaştırın | Pasta, Yığılmış Çubuk |
+| İlişkileri gösterin | Dağılım, Çizgi, Facet, Çift Çizgi |
+| Dağılımları gösterin | Dağılım, Histogram, Kutu |
+| Oranları gösterin | Pasta, Donut, Waffle |
+
+> ✅ Verilerinizin yapısına bağlı olarak, belirli bir grafiğin desteklemesi için metinden sayısala dönüştürmeniz gerekebilir.
+
+## Yanıltmadan kaçının
+
+Bir veri bilimcisi doğru veri için doğru grafiği seçmekte dikkatli olsa bile, veriler genellikle bir noktayı kanıtlamak için, çoğu zaman verilerin kendisini baltalama pahasına, yanıltıcı bir şekilde sunulabilir. Yanıltıcı grafikler ve infografikler için birçok örnek vardır!
+
+[](https://www.youtube.com/watch?v=oX74Nge8Wkw "How charts lie")
+
+> 🎥 Yanıltıcı grafikler hakkında bir konferans konuşması için yukarıdaki görsele tıklayın
+
+Bu grafik, X eksenini ters çevirerek tarihe dayalı olarak gerçeğin tam tersini gösteriyor:
+
+
+
+[Bu grafik](https://media.firstcoastnews.com/assets/WTLV/images/170ae16f-4643-438f-b689-50d66ca6a8d8/170ae16f-4643-438f-b689-50d66ca6a8d8_1140x641.jpg) daha da yanıltıcıdır, çünkü göz sağa çekilerek COVID vakalarının zamanla azaldığı sonucuna varır. Ancak, tarihlere dikkatlice bakarsanız, bu yanıltıcı düşüş eğilimini vermek için yeniden düzenlendiklerini görürsünüz.
+
+
+
+Bu kötü şöhretli örnek, yanıltmak için renk ve ters çevrilmiş bir Y ekseni kullanır: Silah dostu yasaların geçmesinden sonra silahlı ölümlerin arttığı sonucuna varmak yerine, göz tam tersinin doğru olduğunu düşünmek için kandırılır:
+
+
+
+Bu garip grafik, oranın nasıl manipüle edilebileceğini komik bir şekilde gösteriyor:
+
+
+
+Karşılaştırılamaz olanı karşılaştırmak, başka bir gölgeli numaradır. [Harika bir web sitesi](https://tylervigen.com/spurious-correlations), Maine'deki boşanma oranı ile margarin tüketimi gibi şeyleri ilişkilendiren 'uydurma korelasyonlar' sergiliyor. Bir Reddit grubu da verilerin [çirkin kullanımlarını](https://www.reddit.com/r/dataisugly/top/?t=all) topluyor.
+
+Gözün yanıltıcı grafiklerle ne kadar kolay kandırılabileceğini anlamak önemlidir. Veri bilimcisinin niyeti iyi olsa bile, çok fazla kategori gösteren bir pasta grafiği gibi kötü bir grafik türü seçimi yanıltıcı olabilir.
+
+## Renk
+
+Yukarıdaki 'Florida silah şiddeti' grafiğinde gördüğünüz gibi, renk, özellikle ggplot2 ve RColorBrewer gibi çeşitli onaylanmış renk kütüphaneleri ve paletleriyle gelen kütüphaneler kullanılmadan tasarlanan grafiklerde, grafiklere ek bir anlam katmanı sağlayabilir. Bir grafiği elle yapıyorsanız, biraz [renk teorisi](https://colormatters.com/color-and-design/basic-color-theory) çalışması yapın.
+
+> ✅ Grafik tasarlarken, erişilebilirliğin görselleştirmenin önemli bir yönü olduğunu unutmayın. Bazı kullanıcılar renk körü olabilir - grafiğiniz görme engelli kullanıcılar için iyi görüntüleniyor mu?
+
+Grafiğiniz için renk seçerken dikkatli olun, çünkü renk, istemediğiniz bir anlam taşıyabilir. Yukarıdaki 'boy uzunluğu' grafiğindeki 'pembe kadınlar', grafiğin kendisinin tuhaflığını artıran belirgin bir 'feminen' anlam taşır.
+
+[Renk anlamı](https://colormatters.com/color-symbolism/the-meanings-of-colors) dünyanın farklı yerlerinde farklı olabilir ve genellikle tonlarına göre anlam değiştirir. Genel olarak, renk anlamları şunları içerir:
+
+| Renk | Anlam |
+| ------ | ------------------- |
+| kırmızı | güç |
+| mavi | güven, sadakat |
+| sarı | mutluluk, dikkat |
+| yeşil | ekoloji, şans, kıskançlık |
+| mor | mutluluk |
+| turuncu | canlılık |
+
+Özel renklerle bir grafik oluşturmanız gerekiyorsa, grafiklerinizin hem erişilebilir olduğundan hem de seçtiğiniz rengin iletmeye çalıştığınız anlamla uyumlu olduğundan emin olun.
+
+## Grafiklerinizi okunabilirlik için şekillendirme
+
+Grafikler okunabilir değilse anlamlı değildir! Verilerinizle iyi ölçeklenecek şekilde grafiğinizin genişliğini ve yüksekliğini şekillendirmeyi düşünmek için bir an durun. Eğer bir değişken (örneğin tüm 50 eyalet) gösterilmesi gerekiyorsa, mümkünse bunları Y ekseninde dikey olarak gösterin, böylece yatay kaydırmalı bir grafik oluşmasın.
+
+Eksenlerinizi etiketleyin, gerekirse bir açıklama ekleyin ve verilerin daha iyi anlaşılması için araç ipuçları sunun.
+
+Verileriniz X ekseninde metinsel ve ayrıntılıysa, daha iyi okunabilirlik için metni açılı hale getirebilirsiniz. [plot3D](https://cran.r-project.org/web/packages/plot3D/index.html), verileriniz destekliyorsa 3D grafikler sunar. Bununla sofistike veri görselleştirmeleri üretilebilir.
+
+
+
+## Animasyon ve 3D grafik gösterimi
+
+Bugün en iyi veri görselleştirmelerinden bazıları animasyonludur. Shirley Wu, '[film flowers](http://bl.ocks.org/sxywu/raw/d612c6c653fb8b4d7ff3d422be164a5d/)' gibi D3 ile yapılmış harika örnekler sunar; burada her çiçek bir filmin görselleştirmesidir. Guardian için başka bir örnek ise 'bussed out', NYC'nin evsiz sorununu insanları şehirden otobüsle çıkararak nasıl ele aldığını göstermek için görselleştirmeleri Greensock ve D3 ile birleştiren bir interaktif deneyimdir.
+
+
+
+> "Bussed Out: How America Moves its Homeless" [the Guardian](https://www.theguardian.com/us-news/ng-interactive/2017/dec/20/bussed-out-america-moves-homeless-people-country-study). Görselleştirmeler Nadieh Bremer & Shirley Wu tarafından.
+
+Bu ders, bu güçlü görselleştirme kütüphanelerini öğretmek için yeterli derinliğe sahip olmasa da, bir Vue.js uygulamasında D3 kullanarak "Tehlikeli İlişkiler" kitabının animasyonlu bir sosyal ağ görselleştirmesini görüntülemek için bir kütüphane denemeyi deneyin.
+
+> "Les Liaisons Dangereuses", bir dizi mektup olarak sunulan bir roman, yani bir epistolar romanıdır. 1782'de Choderlos de Laclos tarafından yazılmıştır ve 18. yüzyılın sonlarında Fransız aristokrasisinin iki rakip kahramanı olan Vicomte de Valmont ve Marquise de Merteuil'ün ahlaki açıdan iflas etmiş sosyal manevralarını anlatır. İkisi de sonunda yok olur, ancak büyük bir sosyal zarar vermeden önce değil. Roman, intikam planlamak veya sadece sorun çıkarmak için çevrelerindeki çeşitli insanlara yazılan bir dizi mektup olarak gelişir. Bu mektupların bir görselleştirmesini oluşturarak anlatının anahtar figürlerini görsel olarak keşfedin.
+
+Bir sosyal ağın animasyonlu bir görünümünü gösterecek bir web uygulamasını tamamlayacaksınız. Bu, Vue.js ve D3 kullanarak bir [ağ görselleştirmesi](https://github.com/emiliorizzo/vue-d3-network) oluşturmak için yapılmış bir kütüphane kullanır. Uygulama çalışırken, düğümleri ekranda sürükleyerek verileri karıştırabilirsiniz.
+
+
+
+## Proje: D3.js kullanarak bir ağ göstermek için bir grafik oluşturun
+
+> Bu ders klasörü, referansınız için tamamlanmış projeyi bulabileceğiniz bir `solution` klasörü içerir.
+
+1. Başlangıç klasörünün kökündeki README.md dosyasındaki talimatları izleyin. Proje bağımlılıklarını yüklemeden önce makinenizde NPM ve Node.js'nin çalıştığından emin olun.
+
+2. `starter/src` klasörünü açın. Orada, numaralandırılmış, 'to' ve 'from' açıklamalarıyla birlikte romandaki tüm mektupları içeren bir .json dosyasını bulabileceğiniz bir `assets` klasörü bulacaksınız.
+
+3. Görselleştirmeyi etkinleştirmek için `components/Nodes.vue` dosyasındaki kodu tamamlayın. `createLinks()` adlı yöntemi bulun ve aşağıdaki iç içe döngüyü ekleyin.
+
+.json nesnesini döngüye alarak mektupların 'to' ve 'from' verilerini yakalayın ve görselleştirme kütüphanesinin tüketebilmesi için `links` nesnesini oluşturun:
+
+```javascript
+//loop through letters
+ let f = 0;
+ let t = 0;
+ for (var i = 0; i < letters.length; i++) {
+ for (var j = 0; j < characters.length; j++) {
+
+ if (characters[j] == letters[i].from) {
+ f = j;
+ }
+ if (characters[j] == letters[i].to) {
+ t = j;
+ }
+ }
+ this.links.push({ sid: f, tid: t });
+ }
+ ```
+
+Uygulamanızı terminalden çalıştırın (npm run serve) ve görselleştirmenin keyfini çıkarın!
+
+## 🚀 Zorluk
+
+İnternette yanıltıcı görselleştirmeler keşfetmek için bir tur atın. Yazar kullanıcıyı nasıl yanıltıyor ve bu kasıtlı mı? Görselleştirmeleri düzeltmeyi deneyin ve nasıl görünmeleri gerektiğini gösterin.
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/25)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Yanıltıcı veri görselleştirme hakkında bazı makaleler okuyun:
+
+https://gizmodo.com/how-to-lie-with-data-visualization-1563576606
+
+http://ixd.prattsi.org/2017/12/visual-lies-usability-in-deceptive-data-visualizations/
+
+Tarihi varlıklar ve eserler için bu ilginç görselleştirmelere bir göz atın:
+
+https://handbook.pubpub.org/
+
+Animasyonun görselleştirmelerinizi nasıl geliştirebileceğiyle ilgili bu makaleye göz atın:
+
+https://medium.com/@EvanSinar/use-animation-to-supercharge-data-visualization-cd905a882ad4
+
+## Ödev
+
+[Kendi özel görselleştirmenizi oluşturun](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/3-Data-Visualization/README.md b/translations/tr/3-Data-Visualization/README.md
new file mode 100644
index 00000000..6870e839
--- /dev/null
+++ b/translations/tr/3-Data-Visualization/README.md
@@ -0,0 +1,43 @@
+
+# Görselleştirmeler
+
+
+> Fotoğraf: Jenna Lee, Unsplash
+
+
+Verileri görselleştirmek, bir veri bilimcinin en önemli görevlerinden biridir. Görseller bin kelimeye bedeldir ve bir görselleştirme, verinizin anlatmaya çalıştığı hikayeyi anlamanıza yardımcı olabilecek zirveler, aykırı değerler, gruplamalar, eğilimler ve daha fazlası gibi ilginç noktaları belirlemenize yardımcı olabilir.
+
+Bu beş derste, doğadan alınan verileri keşfedecek ve çeşitli teknikler kullanarak ilginç ve güzel görselleştirmeler oluşturacaksınız.
+
+| Konu Numarası | Konu | Bağlantılı Ders | Yazar |
+| :-----------: | :--: | :-----------: | :----: |
+| 1. | Miktarları görselleştirme | - [Python](09-visualization-quantities/README.md)
- [R](../../../3-Data-Visualization/R/09-visualization-quantities)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 2. | Dağılımı görselleştirme | - [Python](10-visualization-distributions/README.md)
- [R](../../../3-Data-Visualization/R/10-visualization-distributions)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 3. | Oranları görselleştirme | - [Python](11-visualization-proportions/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 4. | İlişkileri görselleştirme | - [Python](12-visualization-relationships/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+| 5. | Anlamlı görselleştirmeler oluşturma | - [Python](13-meaningful-visualizations/README.md)
- [R](../../../3-Data-Visualization)
| - [Jen Looper](https://twitter.com/jenlooper)
- [Vidushi Gupta](https://github.com/Vidushi-Gupta)
- [Jasleen Sondhi](https://github.com/jasleen101010)
|
+
+### Katkıda Bulunanlar
+
+Bu görselleştirme dersleri 🌸 ile [Jen Looper](https://twitter.com/jenlooper), [Jasleen Sondhi](https://github.com/jasleen101010) ve [Vidushi Gupta](https://github.com/Vidushi-Gupta) tarafından yazılmıştır.
+
+🍯 ABD Bal Üretimi verileri, Jessica Li'nin [Kaggle](https://www.kaggle.com/jessicali9530/honey-production) üzerindeki projesinden alınmıştır. [Veriler](https://usda.library.cornell.edu/concern/publications/rn301137d), [Amerika Birleşik Devletleri Tarım Bakanlığı](https://www.nass.usda.gov/About_NASS/index.php) tarafından sağlanmıştır.
+
+🍄 Mantar verileri, [Kaggle](https://www.kaggle.com/hatterasdunton/mushroom-classification-updated-dataset) üzerinde Hatteras Dunton tarafından revize edilmiştir. Bu veri seti, Agaricus ve Lepiota ailesindeki 23 tür mantara karşılık gelen varsayımsal örneklerin açıklamalarını içerir. Mantarlar, The Audubon Society Field Guide to North American Mushrooms (1981) kitabından alınmıştır. Bu veri seti, 1987 yılında UCI ML 27'ye bağışlanmıştır.
+
+🦆 Minnesota Kuşları verileri, [Kaggle](https://www.kaggle.com/hannahcollins/minnesota-birds) üzerinde Hannah Collins tarafından [Wikipedia](https://en.wikipedia.org/wiki/List_of_birds_of_Minnesota) üzerinden toplanmıştır.
+
+Tüm bu veri setleri [CC0: Creative Commons](https://creativecommons.org/publicdomain/zero/1.0/) lisansı ile lisanslanmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/14-Introduction/README.md b/translations/tr/4-Data-Science-Lifecycle/14-Introduction/README.md
new file mode 100644
index 00000000..64d3342b
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/14-Introduction/README.md
@@ -0,0 +1,123 @@
+
+# Veri Bilimi Yaşam Döngüsüne Giriş
+
+| ](../../sketchnotes/14-DataScience-Lifecycle.png)|
+|:---:|
+| Veri Bilimi Yaşam Döngüsüne Giriş - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Ders Öncesi Quiz](https://red-water-0103e7a0f.azurestaticapps.net/quiz/26)
+
+Bu noktada, veri biliminin bir süreç olduğunu fark etmiş olabilirsiniz. Bu süreç 5 aşamaya ayrılabilir:
+
+- Veri Toplama
+- İşleme
+- Analiz
+- İletişim
+- Bakım
+
+Bu ders, yaşam döngüsünün 3 kısmına odaklanıyor: veri toplama, işleme ve bakım.
+
+
+> Fotoğraf: [Berkeley School of Information](https://ischoolonline.berkeley.edu/data-science/what-is-data-science/)
+
+## Veri Toplama
+
+Yaşam döngüsünün ilk aşaması çok önemlidir çünkü sonraki aşamalar buna bağlıdır. Aslında bu aşama, iki aşamanın bir araya gelmesinden oluşur: veriyi edinme ve ele alınması gereken amaçları ve problemleri tanımlama.
+Projenin hedeflerini tanımlamak, problem veya sorunun daha derin bir bağlamını gerektirir. Öncelikle, problemini çözmek isteyen kişileri belirlememiz ve edinmemiz gerekir. Bunlar, bir işletmedeki paydaşlar veya projeyi destekleyen sponsorlar olabilir. Bu kişiler, bu projeden kimlerin veya nelerin fayda sağlayacağını, neye ihtiyaç duyulduğunu ve neden ihtiyaç duyulduğunu belirlemeye yardımcı olabilir. İyi tanımlanmış bir hedef, kabul edilebilir bir sonucu tanımlamak için ölçülebilir ve nicel olmalıdır.
+
+Bir veri bilimcinin sorabileceği sorular:
+- Bu problem daha önce ele alındı mı? Ne keşfedildi?
+- Amaç ve hedef, tüm ilgili kişiler tarafından anlaşıldı mı?
+- Belirsizlik var mı ve bunu nasıl azaltabiliriz?
+- Kısıtlamalar nelerdir?
+- Nihai sonuç nasıl görünebilir?
+- Ne kadar kaynak (zaman, insan, hesaplama) mevcut?
+
+Sonraki adım, bu tanımlanmış hedeflere ulaşmak için gereken veriyi belirlemek, toplamak ve ardından keşfetmektir. Bu edinim aşamasında, veri bilimciler ayrıca verinin miktarını ve kalitesini değerlendirmelidir. Bu, elde edilen verinin istenen sonuca ulaşmayı destekleyeceğini doğrulamak için biraz veri keşfi gerektirir.
+
+Bir veri bilimcinin veri hakkında sorabileceği sorular:
+- Hangi veri zaten elimde mevcut?
+- Bu verinin sahibi kim?
+- Gizlilikle ilgili endişeler nelerdir?
+- Bu problemi çözmek için yeterli veri var mı?
+- Veri, bu problem için kabul edilebilir kalitede mi?
+- Bu veri aracılığıyla ek bilgiler keşfedersem, hedefleri değiştirmeyi veya yeniden tanımlamayı düşünmeli miyiz?
+
+## İşleme
+
+Yaşam döngüsünün işleme aşaması, verideki desenleri keşfetmeye ve modellemeye odaklanır. İşleme aşamasında kullanılan bazı teknikler, desenleri ortaya çıkarmak için istatistiksel yöntemler gerektirir. Genellikle, bu büyük bir veri setiyle insan için zahmetli bir görev olur ve süreci hızlandırmak için bilgisayarlara güvenilir. Bu aşama aynı zamanda veri bilimi ve makine öğreniminin kesiştiği noktadır. İlk derste öğrendiğiniz gibi, makine öğrenimi, veriyi anlamak için modeller oluşturma sürecidir. Modeller, verideki değişkenler arasındaki ilişkiyi temsil eder ve sonuçları tahmin etmeye yardımcı olur.
+
+Bu aşamada kullanılan yaygın teknikler, ML for Beginners müfredatında ele alınmıştır. Daha fazla bilgi edinmek için bağlantıları takip edin:
+
+- [Sınıflandırma](https://github.com/microsoft/ML-For-Beginners/tree/main/4-Classification): Veriyi daha verimli kullanım için kategorilere ayırma.
+- [Kümeleme](https://github.com/microsoft/ML-For-Beginners/tree/main/5-Clustering): Veriyi benzer gruplara ayırma.
+- [Regresyon](https://github.com/microsoft/ML-For-Beginners/tree/main/2-Regression): Değişkenler arasındaki ilişkileri belirleyerek değerleri tahmin etme veya öngörme.
+
+## Bakım
+
+Yaşam döngüsü diyagramında, bakımın veri toplama ve işleme arasında yer aldığını fark etmiş olabilirsiniz. Bakım, bir projenin süreci boyunca veriyi yönetme, depolama ve güvence altına alma işlemlerinin sürekli bir sürecidir ve projenin tamamı boyunca dikkate alınmalıdır.
+
+### Veri Depolama
+
+Verinin nasıl ve nerede depolandığına ilişkin kararlar, depolama maliyetini ve veriye erişim hızını etkileyebilir. Bu tür kararlar genellikle yalnızca bir veri bilimci tarafından alınmaz, ancak veri bilimciler, verinin nasıl depolandığına bağlı olarak verilerle nasıl çalışacaklarına dair seçimler yapabilirler.
+
+Modern veri depolama sistemlerinin bu seçimleri etkileyebilecek bazı yönleri:
+
+**Yerinde vs yer dışında vs genel veya özel bulut**
+
+Yerinde depolama, veriyi kendi ekipmanınızda barındırmayı ifade eder; örneğin, veriyi depolayan bir sunucuya sahip olmak. Yer dışında depolama ise sahip olmadığınız bir ekipmana, örneğin bir veri merkezine güvenmeyi ifade eder. Genel bulut, verinin tam olarak nasıl veya nerede depolandığını bilmenizi gerektirmeyen popüler bir seçenektir. Genel, bulutu kullanan herkes tarafından paylaşılan bir altyapıyı ifade eder. Bazı kuruluşlar, verinin barındırıldığı ekipmana tamamen erişim gerektiren katı güvenlik politikalarına sahiptir ve kendi bulut hizmetlerini sağlayan özel bir buluta güvenebilir. Bulutta veri hakkında daha fazla bilgi edinmek için [ilerleyen derslere](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/5-Data-Science-In-Cloud) göz atabilirsiniz.
+
+**Soğuk vs sıcak veri**
+
+Modellerinizi eğitirken daha fazla eğitim verisine ihtiyaç duyabilirsiniz. Modelinizden memnun olduğunuzda, modelin amacına hizmet etmesi için daha fazla veri gelecektir. Her durumda, daha fazla veri biriktirdikçe veriyi depolama ve erişim maliyeti artacaktır. Nadiren kullanılan veriyi, yani soğuk veriyi sıkça erişilen sıcak veriden ayırmak, donanım veya yazılım hizmetleri aracılığıyla daha ucuz bir veri depolama seçeneği olabilir. Soğuk veriye erişilmesi gerektiğinde, sıcak veriye kıyasla biraz daha uzun sürebilir.
+
+### Veri Yönetimi
+
+Verilerle çalışırken, bazı verilerin doğru modeller oluşturmak için temizlenmesi gerektiğini keşfedebilirsiniz. Bu, [veri hazırlığı](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/2-Working-With-Data/08-data-preparation) dersinde ele alınan tekniklerden bazılarını gerektirir. Yeni veri geldiğinde, kalite tutarlılığını korumak için aynı uygulamalara ihtiyaç duyulacaktır. Bazı projeler, verinin nihai konumuna taşınmadan önce temizleme, birleştirme ve sıkıştırma işlemleri için otomatik bir araç kullanılmasını içerebilir. Azure Data Factory, bu araçlardan birine örnektir.
+
+### Veriyi Güvence Altına Alma
+
+Veriyi güvence altına almanın ana hedeflerinden biri, veriyi işleyenlerin ne toplandığını ve hangi bağlamda kullanıldığını kontrol etmelerini sağlamaktır. Veriyi güvence altına almak, yalnızca ihtiyaç duyanların erişimini sınırlamayı, yerel yasa ve düzenlemelere uymayı ve [etik dersinde](https://github.com/microsoft/Data-Science-For-Beginners/tree/main/1-Introduction/02-ethics) ele alındığı gibi etik standartları korumayı içerir.
+
+Bir ekibin güvenlik göz önünde bulundurularak yapabileceği bazı şeyler:
+- Tüm verilerin şifrelenmiş olduğunu doğrulamak
+- Müşterilere verilerinin nasıl kullanıldığı hakkında bilgi sağlamak
+- Projeden ayrılanların veri erişimini kaldırmak
+- Sadece belirli proje üyelerinin veriyi değiştirmesine izin vermek
+
+## 🚀 Zorluk
+
+Veri Bilimi Yaşam Döngüsünün birçok versiyonu vardır; her adım farklı isimlere ve aşama sayısına sahip olabilir, ancak bu derste bahsedilen aynı süreçleri içerir.
+
+[Team Data Science Process yaşam döngüsünü](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/lifecycle) ve [Endüstriler arası veri madenciliği için standart süreci](https://www.datascience-pm.com/crisp-dm-2/) keşfedin. İkisi arasındaki 3 benzerlik ve farklılığı adlandırın.
+
+|Team Data Science Process (TDSP)|Endüstriler Arası Veri Madenciliği için Standart Süreç (CRISP-DM)|
+|--|--|
+| |  |
+| Görsel: [Microsoft](https://docs.microsoft.comazure/architecture/data-science-process/lifecycle) | Görsel: [Data Science Process Alliance](https://www.datascience-pm.com/crisp-dm-2/) |
+
+## [Ders Sonrası Quiz](https://red-water-0103e7a0f.azurestaticapps.net/quiz/27)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Veri Bilimi Yaşam Döngüsünü uygulamak, bir projenin her aşamasının belirli bölümlerine odaklanabilecek birden fazla rol ve görevi içerir. Team Data Science Process, bir projede birinin sahip olabileceği rol ve görev türlerini açıklayan birkaç kaynak sağlar.
+
+* [Team Data Science Process rol ve görevleri](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/roles-tasks)
+* [Veri bilimi görevlerini yürütme: keşif, modelleme ve dağıtım](https://docs.microsoft.com/en-us/azure/architecture/data-science-process/execute-data-science-tasks)
+
+## Ödev
+
+[Bir Veri Setini Değerlendirme](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı bir yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan herhangi bir yanlış anlama veya yanlış yorumlama durumunda sorumluluk kabul edilmez.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/14-Introduction/assignment.md b/translations/tr/4-Data-Science-Lifecycle/14-Introduction/assignment.md
new file mode 100644
index 00000000..b98e1588
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/14-Introduction/assignment.md
@@ -0,0 +1,36 @@
+
+# Bir Veri Setini Değerlendirme
+
+Bir müşteri, New York City'deki taksi müşterilerinin mevsimsel harcama alışkanlıklarını araştırmak için ekibinizden yardım istedi.
+
+Müşteri şu sorunun cevabını öğrenmek istiyor: **New York City'deki sarı taksi yolcuları kışın mı yoksa yazın mı sürücülere daha fazla bahşiş veriyor?**
+
+Ekibiniz şu anda Veri Bilimi Yaşam Döngüsü'nün [Yakalama](Readme.md#Capturing) aşamasında ve veri setini yönetme görevi size verildi. Keşfetmeniz için bir defter ve [veri](../../../../data/taxi.csv) sağlandı.
+
+Bu dizinde, [NYC Taksi ve Limuzin Komisyonu](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) tarafından sağlanan sarı taksi yolculuk verilerini Python kullanarak yükleyen bir [defter](notebook.ipynb) bulunmaktadır. Taksi veri dosyasını bir metin düzenleyicide veya Excel gibi bir tablo yazılımında da açabilirsiniz.
+
+## Talimatlar
+
+- Bu veri setindeki verilerin soruyu yanıtlamaya yardımcı olup olamayacağını değerlendirin.
+- [NYC Açık Veri kataloğunu](https://data.cityofnewyork.us/browse?sortBy=most_accessed&utf8=%E2%9C%93) keşfedin. Müşterinin sorusunu yanıtlamada potansiyel olarak faydalı olabilecek ek bir veri seti belirleyin.
+- Sorunu daha iyi anlamak ve netleştirmek için müşteriye soracağınız 3 soru yazın.
+
+Veri hakkında daha fazla bilgi için [veri seti sözlüğüne](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) ve [kullanıcı kılavuzuna](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) başvurun.
+
+## Değerlendirme Kriterleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | ---
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/15-analyzing/README.md b/translations/tr/4-Data-Science-Lifecycle/15-analyzing/README.md
new file mode 100644
index 00000000..0c5b0a16
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/15-analyzing/README.md
@@ -0,0 +1,60 @@
+
+# Veri Bilimi Yaşam Döngüsü: Analiz Etme
+
+| ](../../sketchnotes/15-Analyzing.png)|
+|:---:|
+| Veri Bilimi Yaşam Döngüsü: Analiz Etme - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## Ders Öncesi Quiz
+
+## [Ders Öncesi Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/28)
+
+Veri yaşam döngüsünde analiz etme aşaması, verilerin önerilen soruları yanıtlayabileceğini veya belirli bir problemi çözebileceğini doğrular. Bu adım ayrıca bir modelin bu soruları ve problemleri doğru bir şekilde ele aldığını doğrulamaya odaklanabilir. Bu ders, verilerdeki özellikleri ve ilişkileri tanımlamak için kullanılan teknikler olan Keşifsel Veri Analizi (Exploratory Data Analysis veya EDA) üzerine odaklanmaktadır ve verileri modelleme için hazırlamak amacıyla kullanılabilir.
+
+Bu ders kapsamında, Python ve Pandas kütüphanesi ile nasıl uygulanabileceğini göstermek için [Kaggle](https://www.kaggle.com/balaka18/email-spam-classification-dataset-csv/version/1) sitesinden bir örnek veri seti kullanacağız. Bu veri seti, e-postalarda bulunan bazı yaygın kelimelerin sayısını içerir ve bu e-postaların kaynakları anonimdir. Bu dizindeki [notebook](notebook.ipynb) dosyasını takip ederek ilerleyebilirsiniz.
+
+## Keşifsel Veri Analizi
+
+Yaşam döngüsünün veri toplama aşaması, verilerin elde edildiği ve mevcut problemler ile soruların belirlendiği aşamadır. Ancak, verilerin nihai sonucu destekleyip destekleyemeyeceğini nasıl anlayabiliriz?
+Bir veri bilimci, verileri elde ettiğinde şu soruları sorabilir:
+- Bu problemi çözmek için yeterli veriye sahip miyim?
+- Bu problem için verinin kalitesi kabul edilebilir mi?
+- Bu veri aracılığıyla ek bilgiler keşfedersem, hedefleri değiştirmeyi veya yeniden tanımlamayı düşünmeli miyiz?
+Keşifsel Veri Analizi, veriyi tanıma sürecidir ve bu soruları yanıtlamak için kullanılabilir. Ayrıca veri setiyle çalışmanın zorluklarını belirlemeye yardımcı olabilir. Şimdi bu hedeflere ulaşmak için kullanılan bazı tekniklere odaklanalım.
+
+## Veri Profili Çıkartma, Tanımlayıcı İstatistikler ve Pandas
+Bu problemi çözmek için yeterli veriye sahip olup olmadığımızı nasıl değerlendiririz? Veri profili çıkartma, tanımlayıcı istatistikler teknikleri aracılığıyla veri setimiz hakkında genel bilgiler özetleyebilir ve toplayabilir. Veri profili çıkartma, elimizde ne olduğunu anlamamıza yardımcı olurken, tanımlayıcı istatistikler elimizde ne kadar şey olduğunu anlamamıza yardımcı olur.
+
+Önceki derslerin birkaçında, Pandas kullanarak [`describe()` fonksiyonu](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.describe.html) ile bazı tanımlayıcı istatistikler sağlamıştık. Bu fonksiyon, sayısal verilerdeki toplam, maksimum ve minimum değerler, ortalama, standart sapma ve çeyrek değerleri sağlar. `describe()` gibi tanımlayıcı istatistikler kullanarak ne kadar veriye sahip olduğunuzu ve daha fazlasına ihtiyacınız olup olmadığını değerlendirebilirsiniz.
+
+## Örnekleme ve Sorgulama
+Büyük bir veri setindeki her şeyi keşfetmek çok zaman alıcı olabilir ve genellikle bir bilgisayara bırakılan bir görevdir. Ancak, örnekleme, veriyi anlamada yardımcı bir araçtır ve veri setinde ne olduğunu ve neyi temsil ettiğini daha iyi anlamamızı sağlar. Bir örnekleme ile, olasılık ve istatistik uygulayarak veriniz hakkında genel sonuçlara ulaşabilirsiniz. Ne kadar veri örneklemeniz gerektiği konusunda belirli bir kural olmasa da, daha fazla veri örneklediğinizde, veri hakkında daha kesin genellemeler yapabilirsiniz.
+Pandas kütüphanesi, [`sample()` fonksiyonunu](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.sample.html) içerir ve bu fonksiyon, kaç rastgele örnek almak istediğinizi belirterek kullanabilirsiniz.
+
+Veri üzerinde genel sorgulamalar yapmak, sahip olduğunuz bazı genel soruları ve teorileri yanıtlamanıza yardımcı olabilir. Örneklemenin aksine, sorgulamalar belirli veri bölümlerine odaklanmanıza ve kontrol sağlamanıza olanak tanır.
+Pandas kütüphanesindeki [`query()` fonksiyonu](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.query.html), sütunları seçmenize ve alınan satırlar aracılığıyla veri hakkında basit cevaplar almanıza olanak tanır.
+
+## Görselleştirmelerle Keşfetme
+Veriler tamamen temizlenip analiz edilene kadar görselleştirmeler oluşturmaya başlamanız gerekmez. Aslında, keşif sırasında görsel bir temsil oluşturmak, verilerdeki desenleri, ilişkileri ve problemleri belirlemeye yardımcı olabilir. Ayrıca, görselleştirmeler, verileri yönetmeyen kişilerle iletişim kurmanın bir yolu olabilir ve yakalama aşamasında ele alınmayan ek soruları paylaşma ve netleştirme fırsatı sunabilir. Görselleştirme ile ilgili daha fazla bilgi için [Görselleştirme Bölümüne](../../../../../../../../../3-Data-Visualization) göz atabilirsiniz.
+
+## Tutarsızlıkları Belirlemek İçin Keşfetme
+Bu dersteki tüm konular, eksik veya tutarsız değerleri belirlemeye yardımcı olabilir, ancak Pandas bu değerleri kontrol etmek için bazı fonksiyonlar sağlar. [isna() veya isnull()](https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.isna.html) eksik değerleri kontrol edebilir. Verinizdeki bu değerleri keşfetmenin önemli bir parçası, bu değerlerin neden bu şekilde oluştuğunu anlamaktır. Bu, [bu değerleri çözmek için hangi adımları atmanız gerektiğine]( /2-Working-With-Data/08-data-preparation/notebook.ipynb) karar vermenize yardımcı olabilir.
+
+## [Ders Öncesi Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/27)
+
+## Ödev
+
+[Cevaplar için Keşfetme](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/15-analyzing/assignment.md b/translations/tr/4-Data-Science-Lifecycle/15-analyzing/assignment.md
new file mode 100644
index 00000000..48e8c1e3
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/15-analyzing/assignment.md
@@ -0,0 +1,36 @@
+
+# Cevapları Keşfetmek
+
+Bu, önceki dersin [ödevi](../14-Introduction/assignment.md) olan ve veri setine kısa bir bakış attığımız çalışmanın devamıdır. Şimdi veriye daha derinlemesine bir göz atacağız.
+
+Yine, müşterinin bilmek istediği soru şu: **New York City'deki sarı taksi yolcuları, kışın mı yoksa yazın mı sürücülere daha fazla bahşiş veriyor?**
+
+Ekibiniz, Veri Bilimi Yaşam Döngüsü'nün [Analiz](README.md) aşamasında ve veri seti üzerinde keşifsel veri analizi yapmaktan sorumlusunuz. Ocak ve Temmuz 2019'a ait 200 taksi işlemini içeren bir defter ve veri seti size sağlanmıştır.
+
+## Talimatlar
+
+Bu dizinde bir [defter](assignment.ipynb) ve [Taksi ve Limuzin Komisyonu](https://docs.microsoft.com/en-us/azure/open-datasets/dataset-taxi-yellow?tabs=azureml-opendatasets) tarafından sağlanan veriler bulunmaktadır. Veri hakkında daha fazla bilgi için [veri sözlüğüne](https://www1.nyc.gov/assets/tlc/downloads/pdf/data_dictionary_trip_records_yellow.pdf) ve [kullanıcı kılavuzuna](https://www1.nyc.gov/assets/tlc/downloads/pdf/trip_record_user_guide.pdf) başvurabilirsiniz.
+
+Bu dersteki bazı teknikleri kullanarak defterde kendi keşifsel veri analizinizi yapın (isterseniz hücreler ekleyin) ve aşağıdaki soruları yanıtlayın:
+
+- Veride bahşiş miktarını etkileyebilecek başka hangi faktörler olabilir?
+- Müşterinin sorularını yanıtlamak için büyük olasılıkla hangi sütunlara ihtiyaç duyulmayacak?
+- Şu ana kadar sağlanan verilere dayanarak, mevsimsel bahşiş davranışına dair herhangi bir kanıt var mı?
+
+## Değerlendirme Ölçütü
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | ---
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/16-communication/README.md b/translations/tr/4-Data-Science-Lifecycle/16-communication/README.md
new file mode 100644
index 00000000..2a66c563
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/16-communication/README.md
@@ -0,0 +1,222 @@
+
+# Veri Bilimi Yaşam Döngüsü: İletişim
+
+|](../../sketchnotes/16-Communicating.png)|
+|:---:|
+| Veri Bilimi Yaşam Döngüsü: İletişim - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+## [Ders Öncesi Testi](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/30)
+
+Yukarıdaki Ders Öncesi Testi ile gelecek konular hakkındaki bilginizi test edin!
+
+# Giriş
+
+### İletişim Nedir?
+Bu derse iletişim kavramını tanımlayarak başlayalım. **İletişim, bilgi aktarmak veya paylaşmaktır.** Bu bilgi; fikirler, düşünceler, duygular, mesajlar, gizli sinyaller, veriler – bir **_göndericinin_** (bilgiyi gönderen kişi) bir **_alıcıya_** (bilgiyi alan kişi) aktarmak istediği her şey olabilir. Bu derste, göndericilere iletişimciler, alıcılara ise hedef kitle diyeceğiz.
+
+### Veri İletişimi ve Hikaye Anlatımı
+İletişim kurarken amacın bilgi aktarmak veya paylaşmak olduğunu anlıyoruz. Ancak veri iletişimi yaparken amacınız sadece rakamları hedef kitlenize iletmek olmamalıdır. Amacınız, verilerinizin oluşturduğu bir hikayeyi anlatmak olmalıdır – etkili veri iletişimi ve hikaye anlatımı el ele gider. Hedef kitleniz, verdiğiniz bir rakamdan ziyade anlattığınız bir hikayeyi hatırlama olasılığı daha yüksektir. Bu derste, verilerinizi daha etkili bir şekilde iletmek için hikaye anlatımını nasıl kullanabileceğinizi ele alacağız.
+
+### İletişim Türleri
+Bu ders boyunca iki farklı iletişim türü tartışılacaktır: Tek Yönlü İletişim ve Çift Yönlü İletişim.
+
+**Tek yönlü iletişim**, bir göndericinin bir alıcıya bilgi gönderdiği, ancak geri bildirim veya yanıt almadığı durumlarda gerçekleşir. Tek yönlü iletişim örneklerini her gün görürüz – toplu e-postalarda, haberlerin en son gelişmeleri aktardığı anlarda veya bir televizyon reklamının ürünlerini neden harika bulmanız gerektiğini anlattığı durumlarda. Bu örneklerin her birinde, gönderici bilgi alışverişi arayışında değildir. Sadece bilgi aktarmayı veya iletmeyi amaçlar.
+
+**Çift yönlü iletişim**, tüm tarafların hem gönderici hem de alıcı olarak hareket ettiği durumlarda gerçekleşir. Bir gönderici, bir alıcıya iletişim kurarak başlar ve alıcı geri bildirim veya yanıt verir. Çift yönlü iletişim, genellikle iletişimden bahsettiğimizde aklımıza gelen şeydir. İnsanların yüz yüze, telefon görüşmesi, sosyal medya veya mesajlaşma yoluyla bir konuşma içinde olduğunu düşünürüz.
+
+Veri iletişimi yaparken, tek yönlü iletişim kullanacağınız durumlar (örneğin, bir konferansta sunum yapmak veya doğrudan soru sorulmayacak büyük bir gruba hitap etmek) ve çift yönlü iletişim kullanacağınız durumlar (örneğin, birkaç paydaşı ikna etmek veya bir takım arkadaşınızı yeni bir şey inşa etmek için zaman ve çaba harcamaya ikna etmek) olacaktır.
+
+# Etkili İletişim
+
+### Bir İletişimci Olarak Sorumluluklarınız
+İletişim kurarken, alıcılarınızın sizin aktarmak istediğiniz bilgiyi aldığından emin olmak sizin sorumluluğunuzdadır. Veri iletişimi yaparken, alıcılarınızın sadece rakamları değil, verilerinizin oluşturduğu bir hikayeyi anlamasını istersiniz. İyi bir veri iletişimcisi, iyi bir hikaye anlatıcısıdır.
+
+Peki, verilerle nasıl hikaye anlatılır? Bunun sonsuz yolu vardır – ancak bu derste ele alacağımız 6 yöntem aşağıda sıralanmıştır:
+1. Hedef Kitlenizi, Kanalınızı ve İletişim Yönteminizi Anlayın
+2. Sonu Düşünerek Başlayın
+3. Gerçek Bir Hikaye Gibi Yaklaşın
+4. Anlamlı Kelimeler ve İfadeler Kullanın
+5. Duyguları Kullanın
+
+Bu stratejilerin her biri aşağıda daha ayrıntılı olarak açıklanmıştır.
+
+### 1. Hedef Kitlenizi, Kanalınızı ve İletişim Yönteminizi Anlayın
+Ailenizle iletişim kurma şekliniz, arkadaşlarınızla iletişim kurma şeklinizden muhtemelen farklıdır. Muhtemelen konuştuğunuz kişilerin daha iyi anlayacağı farklı kelimeler ve ifadeler kullanırsınız. Veri iletişimi yaparken de aynı yaklaşımı benimsemelisiniz. Kime iletişim kurduğunuzu düşünün. Onların hedeflerini ve açıklamakta olduğunuz durumla ilgili bağlamlarını düşünün.
+
+Hedef kitlenizin çoğunu bir kategoriye dahil edebilirsiniz. _Harvard Business Review_ makalesinde, “[How to Tell a Story with Data](http://blogs.hbr.org/2013/04/how-to-tell-a-story-with-data/)” (Verilerle Nasıl Hikaye Anlatılır), Dell Yöneticisi Jim Stikeleather beş hedef kitle kategorisi tanımlar:
+
+- **Acemi**: Konuya ilk kez maruz kalan, ancak aşırı basitleştirme istemeyen
+- **Genel**: Konuya aşina, ancak genel bir anlayış ve ana temalar arayan
+- **Yönetici**: Ayrıntılarla birlikte karmaşıklıkların ve ilişkilerin derinlemesine, uygulanabilir bir şekilde anlaşılmasını isteyen
+- **Uzman**: Daha fazla keşif ve daha az hikaye anlatımı isteyen, ayrıntılara önem veren
+- **Üst Düzey Yönetici**: Sadece olasılıkların ağırlıklı sonuçlarını ve çıkarımlarını anlamak için zamanı olan
+
+Bu kategoriler, verilerinizi hedef kitlenize nasıl sunacağınızı şekillendirebilir.
+
+Hedef kitlenizin kategorisini düşünmenin yanı sıra, onlarla iletişim kurmak için kullandığınız kanalı da göz önünde bulundurmalısınız. Bir not veya e-posta yazmak ile bir toplantı yapmak veya bir konferansta sunum yapmak arasında yaklaşımınız biraz farklı olmalıdır.
+
+Hedef kitlenizi anlamanın yanı sıra, onlarla nasıl iletişim kuracağınızı (tek yönlü iletişim mi yoksa çift yönlü mü) bilmek de kritik öneme sahiptir.
+
+Eğer çoğunluğu Acemi olan bir hedef kitleyle tek yönlü iletişim kuruyorsanız, önce hedef kitlenizi eğitmeniz ve onlara uygun bağlamı sağlamanız gerekir. Daha sonra verilerinizi sunmalı, bu verilerin ne anlama geldiğini ve neden önemli olduğunu açıklamalısınız. Bu durumda, netlik sağlamak için odaklanmanız gerekebilir, çünkü hedef kitleniz size doğrudan soru soramayacaktır.
+
+Eğer çoğunluğu Yönetici olan bir hedef kitleyle çift yönlü iletişim kuruyorsanız, hedef kitlenizi eğitmeniz veya onlara çok fazla bağlam sağlamanız gerekmeyebilir. Muhtemelen doğrudan topladığınız veriler ve bu verilerin neden önemli olduğu konusuna geçebilirsiniz. Ancak bu senaryoda, zamanlama ve sunumunuzu kontrol etme konusunda dikkatli olmalısınız. Çift yönlü iletişimde (özellikle “karmaşıklıkların ve ilişkilerin uygulanabilir bir şekilde anlaşılmasını” isteyen Yönetici bir hedef kitleyle) etkileşim sırasında ortaya çıkan sorular, anlatmaya çalıştığınız hikayeyle ilgisiz bir yöne götürebilir. Bu olduğunda, harekete geçip tartışmayı hikayenize geri döndürebilirsiniz.
+
+### 2. Sonu Düşünerek Başlayın
+Sonu düşünerek başlamak, hedef kitleniz için planladığınız çıkarımları iletişim kurmaya başlamadan önce anlamak anlamına gelir. Hedef kitlenizin neyi anlamasını istediğinizi önceden düşünmek, onların takip edebileceği bir hikaye oluşturmanıza yardımcı olabilir. Sonu düşünerek başlamak, hem tek yönlü hem de çift yönlü iletişim için uygundur.
+
+Sonu düşünerek nasıl başlarsınız? Verilerinizi iletmeden önce, ana çıkarımlarınızı yazın. Daha sonra, verilerinizle anlatmak istediğiniz hikayeyi hazırlarken her adımda kendinize şu soruyu sorun: "Bu, anlatmak istediğim hikayeye nasıl entegre oluyor?"
+
+Dikkat Edin – Sonu düşünerek başlamak ideal olsa da, yalnızca planladığınız çıkarımları destekleyen verileri iletmek istemezsiniz. Bunu yapmak, yalnızca yapmak istediğiniz noktayı destekleyen verileri iletmek ve diğer tüm verileri görmezden gelmek anlamına gelen Seçmece Davranış (Cherry-Picking) olarak adlandırılır.
+
+Topladığınız tüm veriler açıkça planladığınız çıkarımları destekliyorsa, harika. Ancak topladığınız veriler arasında çıkarımlarınızı desteklemeyen veya hatta çıkarımlarınıza karşı bir argümanı destekleyen veriler varsa, bu verileri de iletmelisiniz. Bu durumda, hedef kitlenize karşı dürüst olun ve tüm veriler hikayenizi desteklemese bile neden hikayenize bağlı kalmayı seçtiğinizi açıklayın.
+
+### 3. Gerçek Bir Hikaye Gibi Yaklaşın
+Geleneksel bir hikaye 5 aşamada gerçekleşir. Bu aşamaları şu şekilde duymuş olabilirsiniz: Giriş, Yükselen Aksiyon, Doruk Noktası, Düşen Aksiyon ve Sonuç. Ya da daha kolay hatırlanabilir haliyle: Bağlam, Çatışma, Doruk, Çözüm, Sonuç. Verilerinizi ve hikayenizi iletirken benzer bir yaklaşım benimseyebilirsiniz.
+
+Bağlamla başlayabilir, sahneyi hazırlayabilir ve hedef kitlenizin aynı sayfada olduğundan emin olabilirsiniz. Daha sonra çatışmayı tanıtabilirsiniz. Bu verileri neden toplamanız gerekti? Hangi sorunları çözmeye çalışıyordunuz? Ardından doruk noktasına gelirsiniz. Veriler nedir? Veriler ne anlama geliyor? Veriler bize hangi çözümleri öneriyor? Daha sonra çözüme gelirsiniz, burada sorunu ve önerilen çözümü tekrar edebilirsiniz. Son olarak, sonuç kısmına gelirsiniz, burada ana çıkarımlarınızı ve ekibin atmasını önerdiğiniz sonraki adımları özetleyebilirsiniz.
+
+### 4. Anlamlı Kelimeler ve İfadeler Kullanın
+Eğer bir ürün üzerinde birlikte çalışıyorsak ve size "Kullanıcılarımız platformumuza kaydolup giriş yapmak için uzun zaman harcıyor," dersem, "uzun zaman"ın ne kadar olduğunu tahmin edersiniz? Bir saat mi? Bir hafta mı? Bilmek zor. Peki ya bunu tüm bir hedef kitleye söyleseydim? Hedef kitlenin her bir üyesi, kullanıcıların platformumuza giriş yapmak için ne kadar zaman harcadığına dair farklı bir fikir edinebilir.
+
+Bunun yerine, "Kullanıcılarımız platformumuza kaydolup giriş yapmak için ortalama 3 dakika harcıyor," dersem ne olur?
+
+Bu mesaj daha net olur. Veri iletişimi yaparken, hedef kitlenizin sizin gibi düşündüğünü varsaymak kolay olabilir. Ancak bu her zaman böyle değildir. Verileriniz ve ne anlama geldiği konusunda netlik sağlamak, bir iletişimci olarak sorumluluklarınızdan biridir. Eğer veriler veya hikayeniz net değilse, hedef kitlenizin takip etmesi zorlaşır ve ana çıkarımlarınızı anlamaları daha az olasıdır.
+
+Verileri daha net bir şekilde iletmek için anlamlı kelimeler ve ifadeler kullanabilirsiniz, belirsiz olanlar yerine. Aşağıda birkaç örnek verilmiştir:
+
+- Harika bir yıl geçirdik!
+ - Bir kişi harika bir yılın %2-3'lük bir gelir artışı anlamına geldiğini düşünebilirken, bir diğeri %50-60'lık bir artış anlamına geldiğini düşünebilir.
+- Kullanıcılarımızın başarı oranları *dramatik* bir şekilde arttı.
+ - Dramatik bir artış ne kadar büyük bir artıştır?
+- Bu girişim *önemli* bir çaba gerektirecek.
+ - Ne kadar çaba önemlidir?
+
+Belirsiz kelimeler, daha fazla verinin geleceği bir giriş olarak veya anlattığınız hikayenin bir özeti olarak faydalı olabilir. Ancak sunumunuzun her bölümünün hedef kitleniz için net olduğundan emin olmayı düşünün.
+
+### 5. Duyguları Kullanın
+Duygular, hikaye anlatımında anahtardır. Verilerle bir hikaye anlatırken bu daha da önemlidir. Veri iletişimi yaparken her şey, hedef kitlenizin sahip olmasını istediğiniz çıkarımlara odaklanır. Bir hedef kitlede bir duygu uyandırdığınızda, onların empati kurmasına yardımcı olur ve harekete geçme olasılıklarını artırır. Duygular ayrıca bir hedef kitlenin mesajınızı hatırlama olasılığını artırır.
+
+Bunu daha önce TV reklamlarında yaşamış olabilirsiniz. Bazı reklamlar oldukça hüzünlüdür ve hedef kitleleriyle bağlantı kurmak ve sundukları verileri gerçekten öne çıkarmak için üzücü bir duygu kullanır. Ya da bazı reklamlar oldukça neşelidir ve sizi verileri mutlu bir duygu ile ilişkilendirmenizi sağlar.
+
+Veri iletişimi yaparken duyguları nasıl kullanabilirsiniz? İşte birkaç yol:
+
+- Tanıklıklar ve Kişisel Hikayeler Kullanın
+ - Veri toplarken, hem nicel hem de nitel veriler toplamaya çalışın ve iletişim kurarken her iki tür veriyi de entegre edin. Eğer verileriniz ağırlıklı olarak nicel ise, verilerinizin size ne söylediği hakkında daha fazla bilgi edinmek için bireylerden hikayeler toplayın.
+- Görseller Kullanın
+ - Görseller, bir hedef kitlenin kendini bir durumun içinde görmesine yardımcı olur. Görseller kullandığınızda, hedef kitlenizi verileriniz hakkında sahip olmaları gerektiğini düşündüğünüz duyguya yönlendirebilirsiniz.
+- Renk Kullanın
+ - Farklı renkler farklı duygular uyandırır. Popüler renkler ve uyandırdıkları duygular aşağıda verilmiştir. Ancak renklerin farklı kültürlerde farklı anlamlara sahip olabileceğini unutmayın.
+ - Mavi genellikle huzur ve güven duyguları uyandırır.
+ - Yeşil genellikle doğa ve çevre ile ilişkilendirilir.
+ - Kırmızı genellikle tutku ve heyecan anlamına gelir.
+ - Sarı genellikle iyimserlik ve mutluluk anlamına gelir.
+
+# İletişim Vaka Çalışması
+Emerson, bir mobil uygulama için Ürün Yöneticisidir. Emerson, müşterilerin hafta sonları %42 daha fazla şikayet ve hata raporu gönderdiğini fark etmiştir. Ayrıca, bir şikayeti 48 saat içinde yanıtlanmayan müşterilerin, uygulamaya 1 veya 2 yıldız verme olasılığının %32 daha fazla olduğunu gözlemlemiştir.
+
+Araştırma yaptıktan sonra, Emerson sorunu ele alacak birkaç çözüm bulmuştur. Emerson, verileri ve önerilen çözümleri iletmek için şirketin 3 lideriyle 30 dakikalık bir toplantı ayarlar.
+
+Bu toplantı sırasında Emerson’un hedefi, şirket liderlerinin aşağıdaki 2 çözümün uygulamanın puanını iyileştirebileceğini anlamalarını sağlamaktır, bu da muhtemelen daha yüksek gelir anlamına gelecektir.
+
+**Çözüm 1.** Hafta sonları çalışacak müşteri hizmetleri temsilcileri işe alın.
+
+**Çözüm 2.** Müşteri hizmetleri temsilcilerinin hangi şikayetlerin en uzun süredir beklediğini kolayca belirleyebileceği yeni bir müşteri hizmetleri biletleme sistemi satın alın.
+Toplantıda Emerson, uygulama mağazasındaki düşük puana sahip olmanın neden kötü olduğunu açıklamak için 5 dakika, araştırma sürecini ve trendlerin nasıl belirlendiğini açıklamak için 10 dakika, son müşteri şikayetlerini gözden geçirmek için 10 dakika ve son olarak 2 olası çözümü hızlıca geçmek için 5 dakika harcıyor.
+
+Emerson, bu toplantıda iletişim kurmak için etkili bir yol izledi mi?
+
+Toplantı sırasında, bir şirket lideri Emerson'ın müşteri şikayetlerini ele aldığı 10 dakikaya odaklandı. Toplantıdan sonra, bu şikayetler bu ekip liderinin hatırladığı tek şey oldu. Bir diğer şirket lideri ise Emerson'ın araştırma sürecini açıklamasına odaklandı. Üçüncü şirket lideri Emerson'ın önerdiği çözümleri hatırladı ancak bu çözümlerin nasıl uygulanabileceğinden emin değildi.
+
+Yukarıdaki durumda, Emerson'ın ekip liderlerinin toplantıdan almasını istediği şey ile onların toplantıdan aldıkları arasında önemli bir fark olduğunu görebilirsiniz. Aşağıda Emerson'ın düşünebileceği başka bir yaklaşım yer alıyor.
+
+Emerson bu yaklaşımı nasıl geliştirebilir?
+Bağlam, Çatışma, Doruk Noktası, Kapanış, Sonuç
+**Bağlam** - Emerson, ilk 5 dakikayı tüm durumu tanıtarak ve ekip liderlerinin sorunların şirket için kritik olan metrikleri, örneğin gelir, nasıl etkilediğini anlamalarını sağlayarak geçirebilir.
+
+Şöyle ifade edilebilir: "Şu anda uygulamamızın mağaza puanı 2.5. Uygulama mağazası puanları, uygulama mağazası optimizasyonu için kritik öneme sahiptir ve bu, uygulamamızın aramalarda kaç kullanıcı tarafından görüldüğünü ve potansiyel kullanıcılar tarafından nasıl algılandığını etkiler. Ve tabii ki, sahip olduğumuz kullanıcı sayısı doğrudan gelirle bağlantılıdır."
+
+**Çatışma** Emerson, ardından yaklaşık 5 dakika boyunca çatışmayı ele alabilir.
+
+Şöyle ifade edilebilir: “Kullanıcılar hafta sonları %42 daha fazla şikayet ve hata raporu gönderiyor. Şikayet gönderen ve 48 saat içinde yanıt alamayan müşteriler, uygulama mağazasına 2'nin üzerinde bir puan verme olasılığı %32 daha düşük. Uygulama mağazasındaki puanımızı 4'e çıkarmak, görünürlüğümüzü %20-30 oranında artırır ve bunun geliri %10 artıracağını öngörüyorum." Tabii ki, Emerson bu rakamları gerekçelendirmeye hazır olmalıdır.
+
+**Doruk Noktası** Temelleri attıktan sonra Emerson yaklaşık 5 dakika boyunca Doruk Noktası'na geçebilir.
+
+Emerson önerilen çözümleri tanıtabilir, bu çözümlerin belirtilen sorunları nasıl ele alacağını, mevcut iş akışlarına nasıl entegre edilebileceğini, çözümlerin maliyetini, çözümlerin yatırım getirisini (ROI) ve hatta çözümlerin uygulanması durumunda nasıl görüneceğine dair ekran görüntüleri veya taslaklar gösterebilir. Emerson ayrıca, şikayetleri 48 saatten uzun sürede yanıtlanan kullanıcıların görüşlerini ve mevcut müşteri hizmetleri temsilcisinin mevcut biletleme sistemi hakkındaki yorumlarını paylaşabilir.
+
+**Kapanış** Şimdi Emerson, şirketin karşılaştığı sorunları yeniden ifade etmek, önerilen çözümleri tekrar gözden geçirmek ve neden bu çözümlerin doğru olduğunu incelemek için 5 dakika harcayabilir.
+
+**Sonuç** Bu, birkaç paydaşla yapılan ve iki yönlü iletişimin kullanılacağı bir toplantı olduğundan, Emerson toplantı bitmeden önce ekip liderlerinin kafasını karıştıran herhangi bir şeyi netleştirebilmek için 10 dakika soru-cevap bölümü planlayabilir.
+
+Emerson yaklaşım #2'yi benimserse, ekip liderlerinin toplantıdan tam olarak Emerson'ın istediği şeyi alması çok daha olasıdır – şikayetlerin ve hataların ele alınma şeklinin iyileştirilebileceği ve bu iyileştirmeyi gerçekleştirmek için uygulanabilecek 2 çözüm olduğu. Bu yaklaşım, Emerson'ın iletmek istediği verileri ve hikayeyi çok daha etkili bir şekilde iletmesini sağlayacaktır.
+
+# Sonuç
+### Ana Noktaların Özeti
+- İletişim kurmak, bilgi aktarmak veya paylaşmaktır.
+- Verileri iletişim kurarken amacınız sadece rakamları izleyicilerinize aktarmak olmamalıdır. Amacınız, verilerinizden ilham alan bir hikaye anlatmak olmalıdır.
+- İletişimin 2 türü vardır: Tek Yönlü İletişim (bilgi bir yanıt beklenmeden iletilir) ve İki Yönlü İletişim (bilgi karşılıklı olarak iletilir).
+- Verilerle hikaye anlatmak için kullanabileceğiniz birçok strateji vardır, üzerinde durduğumuz 5 strateji şunlardır:
+ - Kitlenizi, Ortamınızı ve İletişim Yönteminizi Anlayın
+ - Sonu Başta Düşünün
+ - Gerçek Bir Hikaye Gibi Yaklaşın
+ - Anlamlı Kelimeler ve İfadeler Kullanın
+ - Duyguları Kullanın
+
+### Kendi Kendine Çalışma için Önerilen Kaynaklar
+[The Five C's of Storytelling - Articulate Persuasion](http://articulatepersuasion.com/the-five-cs-of-storytelling/)
+
+[1.4 Your Responsibilities as a Communicator – Business Communication for Success (umn.edu)](https://open.lib.umn.edu/businesscommunication/chapter/1-4-your-responsibilities-as-a-communicator/)
+
+[How to Tell a Story with Data (hbr.org)](https://hbr.org/2013/04/how-to-tell-a-story-with-data)
+
+[Two-Way Communication: 4 Tips for a More Engaged Workplace (yourthoughtpartner.com)](https://www.yourthoughtpartner.com/blog/bid/59576/4-steps-to-increase-employee-engagement-through-two-way-communication)
+
+[6 succinct steps to great data storytelling - BarnRaisers, LLC (barnraisersllc.com)](https://barnraisersllc.com/2021/05/02/6-succinct-steps-to-great-data-storytelling/)
+
+[How to Tell a Story With Data | Lucidchart Blog](https://www.lucidchart.com/blog/how-to-tell-a-story-with-data)
+
+[6 Cs of Effective Storytelling on Social Media | Cooler Insights](https://coolerinsights.com/2018/06/effective-storytelling-social-media/)
+
+[The Importance of Emotions In Presentations | Ethos3 - A Presentation Training and Design Agency](https://ethos3.com/2015/02/the-importance-of-emotions-in-presentations/)
+
+[Data storytelling: linking emotions and rational decisions (toucantoco.com)](https://www.toucantoco.com/en/blog/data-storytelling-dataviz)
+
+[Emotional Advertising: How Brands Use Feelings to Get People to Buy (hubspot.com)](https://blog.hubspot.com/marketing/emotions-in-advertising-examples)
+
+[Choosing Colors for Your Presentation Slides | Think Outside The Slide](https://www.thinkoutsidetheslide.com/choosing-colors-for-your-presentation-slides/)
+
+[How To Present Data [10 Expert Tips] | ObservePoint](https://resources.observepoint.com/blog/10-tips-for-presenting-data)
+
+[Microsoft Word - Persuasive Instructions.doc (tpsnva.org)](https://www.tpsnva.org/teach/lq/016/persinstr.pdf)
+
+[The Power of Story for Your Data (thinkhdi.com)](https://www.thinkhdi.com/library/supportworld/2019/power-story-your-data.aspx)
+
+[Common Mistakes in Data Presentation (perceptualedge.com)](https://www.perceptualedge.com/articles/ie/data_presentation.pdf)
+
+[Infographic: Here are 15 Common Data Fallacies to Avoid (visualcapitalist.com)](https://www.visualcapitalist.com/here-are-15-common-data-fallacies-to-avoid/)
+
+[Cherry Picking: When People Ignore Evidence that They Dislike – Effectiviology](https://effectiviology.com/cherry-picking/#How_to_avoid_cherry_picking)
+
+[Tell Stories with Data: Communication in Data Science | by Sonali Verghese | Towards Data Science](https://towardsdatascience.com/tell-stories-with-data-communication-in-data-science-5266f7671d7)
+
+[1. Communicating Data - Communicating Data with Tableau [Book] (oreilly.com)](https://www.oreilly.com/library/view/communicating-data-with/9781449372019/ch01.html)
+
+## [Ders Sonrası Quiz](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/31)
+
+Yukarıdaki Ders Sonrası Quiz ile öğrendiklerinizi gözden geçirin!
+
+## Ödev
+
+[Market Research](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/16-communication/assignment.md b/translations/tr/4-Data-Science-Lifecycle/16-communication/assignment.md
new file mode 100644
index 00000000..9457ab3f
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/16-communication/assignment.md
@@ -0,0 +1,26 @@
+
+# Bir Hikaye Anlat
+
+## Talimatlar
+
+Veri Bilimi tamamen hikaye anlatımıyla ilgilidir. Herhangi bir veri seti seçin ve bu veri setiyle ilgili anlatabileceğiniz bir hikaye hakkında kısa bir yazı yazın. Veri setinizin neleri ortaya çıkarabileceğini umuyorsunuz? Eğer ortaya çıkardıkları sorunlu olursa ne yapacaksınız? Ya verileriniz kolayca sırlarını açığa çıkarmazsa? Veri setinizin sunabileceği senaryoları düşünün ve bunları yazın.
+
+## Değerlendirme Kriterleri
+
+Örnek Niteliğinde | Yeterli | Geliştirme Gerekiyor
+--- | --- | --- |
+
+Bir sayfalık bir makale .doc formatında sunulmuş, veri seti açıklanmış, belgelenmiş, kaynak gösterilmiş ve verilerden detaylı örneklerle tutarlı bir hikaye anlatılmıştır. | Daha kısa bir makale daha az detaylı bir formatta sunulmuştur. | Makale yukarıdaki detaylardan birinde eksik bulunmuştur.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/4-Data-Science-Lifecycle/README.md b/translations/tr/4-Data-Science-Lifecycle/README.md
new file mode 100644
index 00000000..90949413
--- /dev/null
+++ b/translations/tr/4-Data-Science-Lifecycle/README.md
@@ -0,0 +1,30 @@
+
+# Veri Bilimi Yaşam Döngüsü
+
+
+> Fotoğraf: Headway, Unsplash üzerinden
+
+Bu derslerde, Veri Bilimi yaşam döngüsünün bazı yönlerini, veri analizi ve iletişim dahil olmak üzere keşfedeceksiniz.
+
+### Konular
+
+1. [Giriş](14-Introduction/README.md)
+2. [Analiz](15-analyzing/README.md)
+3. [İletişim](16-communication/README.md)
+
+### Katkıda Bulunanlar
+
+Bu dersler, [Jalen McGee](https://twitter.com/JalenMCG) ve [Jasmine Greenaway](https://twitter.com/paladique) tarafından ❤️ ile yazılmıştır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/17-Introduction/README.md b/translations/tr/5-Data-Science-In-Cloud/17-Introduction/README.md
new file mode 100644
index 00000000..753745ee
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/17-Introduction/README.md
@@ -0,0 +1,113 @@
+
+# Bulutta Veri Bilimine Giriş
+
+| ](../../sketchnotes/17-DataScience-Cloud.png)|
+|:---:|
+| Bulutta Veri Bilimine Giriş - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Bu derste, Bulutun temel prensiplerini öğreneceksiniz, ardından veri bilimi projelerinizi yürütmek için Bulut hizmetlerini kullanmanın neden ilginç olabileceğini göreceksiniz ve Bulutta yürütülen bazı veri bilimi projelerine örnekler inceleyeceğiz.
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/32)
+
+## Bulut Nedir?
+
+Bulut veya Bulut Bilişim, internet üzerinden bir altyapı üzerinde barındırılan, kullanıldıkça öde modeliyle sunulan geniş bir yelpazede bilişim hizmetlerinin teslimidir. Bu hizmetler arasında depolama, veritabanları, ağ, yazılım, analiz ve akıllı hizmetler gibi çözümler bulunur.
+
+Genellikle Kamu, Özel ve Hibrit bulutları şu şekilde ayırırız:
+
+* Kamu bulutu: Kamu bulutu, üçüncü taraf bir bulut hizmet sağlayıcısı tarafından sahip olunan ve işletilen, bilişim kaynaklarını internet üzerinden halka sunan bir buluttur.
+* Özel bulut: Özel bulut, yalnızca tek bir işletme veya organizasyon tarafından kullanılan bulut bilişim kaynaklarını ifade eder. Hizmetler ve altyapı özel bir ağ üzerinde yönetilir.
+* Hibrit bulut: Hibrit bulut, kamu ve özel bulutları birleştiren bir sistemdir. Kullanıcılar, bir yerel veri merkezi seçerken, veri ve uygulamaların bir veya daha fazla kamu bulutunda çalışmasına izin verir.
+
+Çoğu bulut bilişim hizmeti üç kategoriye ayrılır: Hizmet Olarak Altyapı (IaaS), Hizmet Olarak Platform (PaaS) ve Hizmet Olarak Yazılım (SaaS).
+
+* Hizmet Olarak Altyapı (IaaS): Kullanıcılar sunucular, sanal makineler (VM'ler), depolama, ağlar, işletim sistemleri gibi bir BT altyapısını kiralar.
+* Hizmet Olarak Platform (PaaS): Kullanıcılar yazılım uygulamaları geliştirmek, test etmek, teslim etmek ve yönetmek için bir ortam kiralar. Kullanıcılar, geliştirme için gereken sunucular, depolama, ağ ve veritabanlarının altyapısını kurmak veya yönetmek zorunda kalmaz.
+* Hizmet Olarak Yazılım (SaaS): Kullanıcılar, internet üzerinden talep üzerine ve genellikle abonelik bazında yazılım uygulamalarına erişim sağlar. Kullanıcılar, yazılım uygulamasını barındırma ve yönetme, altyapıyı veya bakımını (örneğin yazılım güncellemeleri ve güvenlik yamaları) düşünmek zorunda kalmaz.
+
+En büyük Bulut sağlayıcılarından bazıları Amazon Web Services, Google Cloud Platform ve Microsoft Azure'dur.
+
+## Veri Bilimi için Neden Bulutu Seçmelisiniz?
+
+Geliştiriciler ve BT profesyonelleri, Bulut ile çalışmayı aşağıdaki nedenler dahil olmak üzere birçok sebepten dolayı tercih eder:
+
+* Yenilik: Uygulamalarınızı, Bulut sağlayıcıları tarafından oluşturulan yenilikçi hizmetleri doğrudan uygulamalarınıza entegre ederek güçlendirebilirsiniz.
+* Esneklik: Sadece ihtiyacınız olan hizmetler için ödeme yaparsınız ve geniş bir hizmet yelpazesinden seçim yapabilirsiniz. Genellikle kullandıkça ödersiniz ve hizmetlerinizi değişen ihtiyaçlarınıza göre uyarlarsınız.
+* Bütçe: Donanım ve yazılım satın almak, yerinde veri merkezleri kurmak ve işletmek için başlangıç yatırımları yapmanız gerekmez; sadece kullandığınız kadar ödersiniz.
+* Ölçeklenebilirlik: Kaynaklarınız projenizin ihtiyaçlarına göre ölçeklenebilir, bu da uygulamalarınızın herhangi bir zamanda dış faktörlere uyum sağlayarak daha fazla veya daha az işlem gücü, depolama ve bant genişliği kullanabileceği anlamına gelir.
+* Verimlilik: Veri merkezlerini yönetmek gibi başkası tarafından yönetilebilecek görevlerde zaman harcamak yerine işinize odaklanabilirsiniz.
+* Güvenilirlik: Bulut Bilişim, verilerinizi sürekli yedeklemek için çeşitli yollar sunar ve kriz zamanlarında bile işinizi ve hizmetlerinizi devam ettirmek için felaket kurtarma planları oluşturabilirsiniz.
+* Güvenlik: Projenizin güvenliğini güçlendiren politikalar, teknolojiler ve kontrollerden faydalanabilirsiniz.
+
+Bunlar, insanların Bulut hizmetlerini kullanmayı tercih etmesinin en yaygın nedenlerinden bazılarıdır. Artık Bulutun ne olduğunu ve temel faydalarını daha iyi anladığımıza göre, veriyle çalışan veri bilimcilerin ve geliştiricilerin işlerine daha spesifik olarak bakalım ve Bulutun karşılaşabilecekleri çeşitli zorluklarla nasıl yardımcı olabileceğini görelim:
+
+* Büyük miktarda veri depolama: Büyük sunucular satın almak, yönetmek ve korumak yerine, verilerinizi doğrudan Bulutta depolayabilirsiniz. Örneğin Azure Cosmos DB, Azure SQL Database ve Azure Data Lake Storage gibi çözümlerle.
+* Veri Entegrasyonu Yapma: Veri entegrasyonu, veri toplamadan harekete geçmeye geçiş yapmanızı sağlayan Veri Biliminin önemli bir parçasıdır. Bulutta sunulan veri entegrasyon hizmetleriyle, çeşitli kaynaklardan gelen verileri tek bir veri ambarına toplamak, dönüştürmek ve entegre etmek için Data Factory kullanabilirsiniz.
+* Veri işleme: Büyük miktarda veri işlemek çok fazla işlem gücü gerektirir ve herkesin bu kadar güçlü makineler erişimi olmayabilir. Bu nedenle birçok kişi, çözümlerini çalıştırmak ve dağıtmak için doğrudan Bulutun büyük işlem gücünden yararlanmayı tercih eder.
+* Veri analitiği hizmetlerini kullanma: Azure Synapse Analytics, Azure Stream Analytics ve Azure Databricks gibi bulut hizmetleriyle verilerinizi eyleme dönüştürülebilir içgörülere dönüştürebilirsiniz.
+* Makine Öğrenimi ve veri zekası hizmetlerini kullanma: Sıfırdan başlamak yerine, Bulut sağlayıcısı tarafından sunulan makine öğrenimi algoritmalarını AzureML gibi hizmetlerle kullanabilirsiniz. Ayrıca konuşmadan metne, metinden konuşmaya, bilgisayar görüşü ve daha fazlası gibi bilişsel hizmetlerden faydalanabilirsiniz.
+
+## Bulutta Veri Bilimi Örnekleri
+
+Bunu daha somut hale getirmek için birkaç senaryoya bakalım.
+
+### Gerçek zamanlı sosyal medya duygu analizi
+Makine öğrenimi ile başlayan kişiler tarafından sıkça incelenen bir senaryoyla başlayalım: gerçek zamanlı sosyal medya duygu analizi.
+
+Diyelim ki bir haber medya web sitesi işletiyorsunuz ve okuyucularınızın ilgilenebileceği içerikleri anlamak için canlı verilerden yararlanmak istiyorsunuz. Bunun hakkında daha fazla bilgi edinmek için, Twitter yayınlarından okuyucularınıza uygun konular hakkında gerçek zamanlı duygu analizi yapan bir program oluşturabilirsiniz.
+
+Bakacağınız temel göstergeler, belirli konular (hashtagler) hakkındaki tweetlerin hacmi ve belirtilen konular etrafında duygu analizi yapan analitik araçlarla belirlenen duygudur.
+
+Bu projeyi oluşturmak için gerekli adımlar şunlardır:
+
+* Twitter'dan veri toplayacak bir giriş akışı için bir olay merkezi oluşturun.
+* Twitter Streaming API'lerini çağıracak bir Twitter istemci uygulaması yapılandırın ve başlatın.
+* Bir Stream Analytics işi oluşturun.
+* İş girdisini ve sorgusunu belirtin.
+* Bir çıktı havuzu oluşturun ve iş çıktısını belirtin.
+* İşi başlatın.
+
+Tam süreci görmek için [belgelere](https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?WT.mc_id=academic-77958-bethanycheum&ocid=AID30411099) göz atın.
+
+### Bilimsel makalelerin analizi
+Bu müfredatın yazarlarından biri olan [Dmitry Soshnikov](http://soshnikov.com) tarafından oluşturulan bir projeye başka bir örnek alalım.
+
+Dmitry, COVID makalelerini analiz eden bir araç oluşturdu. Bu projeyi inceleyerek, bilimsel makalelerden bilgi çıkaran, içgörüler elde eden ve araştırmacıların büyük makale koleksiyonlarında verimli bir şekilde gezinmesine yardımcı olan bir araç nasıl oluşturabileceğinizi göreceksiniz.
+
+Bu projede kullanılan farklı adımlara bakalım:
+* [Text Analytics for Health](https://docs.microsoft.com/azure/cognitive-services/text-analytics/how-tos/text-analytics-for-health?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) ile bilgi çıkarma ve ön işleme.
+* İşlemeyi paralelleştirmek için [Azure ML](https://azure.microsoft.com/services/machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) kullanma.
+* Bilgiyi depolama ve sorgulama için [Cosmos DB](https://azure.microsoft.com/services/cosmos-db?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) kullanma.
+* Veri keşfi ve görselleştirme için etkileşimli bir kontrol paneli oluşturma, Power BI kullanarak.
+
+Tam süreci görmek için [Dmitry’nin blogunu](https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/) ziyaret edin.
+
+Gördüğünüz gibi, Bulut hizmetlerini kullanarak Veri Bilimi yapmak için birçok yol var.
+
+## Dipnot
+
+Kaynaklar:
+* https://azure.microsoft.com/overview/what-is-cloud-computing?ocid=AID3041109
+* https://docs.microsoft.com/azure/stream-analytics/stream-analytics-twitter-sentiment-analysis-trends?ocid=AID3041109
+* https://soshnikov.com/science/analyzing-medical-papers-with-azure-and-text-analytics-for-health/
+
+## Ders Sonrası Test
+
+[Ders sonrası test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/33)
+
+## Ödev
+
+[Pazar Araştırması](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/17-Introduction/assignment.md b/translations/tr/5-Data-Science-In-Cloud/17-Introduction/assignment.md
new file mode 100644
index 00000000..eef2b65b
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/17-Introduction/assignment.md
@@ -0,0 +1,25 @@
+
+# Pazar Araştırması
+
+## Talimatlar
+
+Bu derste, birkaç önemli bulut sağlayıcısının olduğunu öğrendiniz. Veri Bilimciler için her birinin neler sunabileceğini keşfetmek üzere pazar araştırması yapın. Sunulan hizmetler karşılaştırılabilir mi? Üç veya daha fazla bulut sağlayıcısının sunduğu hizmetleri açıklayan bir makale yazın.
+
+## Değerlendirme Ölçütleri
+
+Örnek Niteliğinde | Yeterli | Geliştirmeye İhtiyaç Var
+--- | --- | -- |
+Bir sayfalık makale, üç bulut sağlayıcısının veri bilimi hizmetlerini açıklar ve aralarındaki farkları belirtir. | Daha kısa bir makale sunulur | Analiz tamamlanmadan bir makale sunulur
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/18-Low-Code/README.md b/translations/tr/5-Data-Science-In-Cloud/18-Low-Code/README.md
new file mode 100644
index 00000000..7054c513
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/18-Low-Code/README.md
@@ -0,0 +1,347 @@
+
+# Bulutta Veri Bilimi: "Düşük Kod/Hiç Kod" Yöntemi
+
+| ](../../sketchnotes/18-DataScience-Cloud.png)|
+|:---:|
+| Bulutta Veri Bilimi: Düşük Kod - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+İçindekiler:
+
+- [Bulutta Veri Bilimi: "Düşük Kod/Hiç Kod" Yöntemi](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Ders Öncesi Test](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1. Giriş](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.1 Azure Machine Learning Nedir?](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.2 Kalp Yetmezliği Tahmin Projesi:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [1.3 Kalp Yetmezliği Veri Seti:](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2. Azure ML Studio'da Düşük Kod/Hiç Kod ile Model Eğitimi](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.1 Azure ML Çalışma Alanı Oluşturma](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2 Hesaplama Kaynakları](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.1 Hesaplama Kaynakları için Doğru Seçenekleri Belirleme](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.2.2 Hesaplama Kümesi Oluşturma](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.3 Veri Setini Yükleme](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [2.4 AutoML ile Düşük Kod/Hiç Kod Eğitimi](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3. Düşük Kod/Hiç Kod Model Dağıtımı ve Uç Nokta Tüketimi](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.1 Model Dağıtımı](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [3.2 Uç Nokta Tüketimi](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [🚀 Zorluk](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Ders Sonrası Test](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Gözden Geçirme ve Kendi Kendine Çalışma](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+ - [Ödev](../../../../5-Data-Science-In-Cloud/18-Low-Code)
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/34)
+## 1. Giriş
+### 1.1 Azure Machine Learning Nedir?
+
+Azure bulut platformu, yeni çözümleri hayata geçirmenize yardımcı olmak için tasarlanmış 200'den fazla ürün ve bulut hizmetinden oluşur. Veri bilimciler, verileri keşfetmek ve ön işlemek, çeşitli model eğitim algoritmalarını denemek ve doğru modeller üretmek için çok fazla çaba harcarlar. Bu görevler zaman alıcıdır ve genellikle pahalı hesaplama donanımını verimsiz bir şekilde kullanır.
+
+[Azure ML](https://docs.microsoft.com/azure/machine-learning/overview-what-is-azure-machine-learning?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109), Azure'da makine öğrenimi çözümleri oluşturmak ve işletmek için bulut tabanlı bir platformdur. Veri bilimcilerin verileri hazırlamasına, modelleri eğitmesine, tahmin hizmetlerini yayınlamasına ve kullanımını izlemesine yardımcı olan çok çeşitli özellikler ve yetenekler içerir. En önemlisi, model eğitimiyle ilgili zaman alıcı görevlerin çoğunu otomatikleştirerek verimliliklerini artırır; ve yalnızca kullanıldığında maliyet oluşturan, büyük veri hacimlerini etkili bir şekilde işlemek için ölçeklenen bulut tabanlı hesaplama kaynaklarını kullanmalarını sağlar.
+
+Azure ML, geliştiriciler ve veri bilimciler için makine öğrenimi iş akışlarıyla ilgili tüm araçları sağlar. Bunlar şunları içerir:
+
+- **Azure Machine Learning Studio**: Model eğitimi, dağıtımı, otomasyonu, takibi ve varlık yönetimi için düşük kod ve hiç kod seçenekleri sunan bir web portalıdır. Studio, Azure Machine Learning SDK ile entegre bir deneyim sağlar.
+- **Jupyter Notebooks**: ML modellerini hızlı bir şekilde prototiplemek ve test etmek için kullanılır.
+- **Azure Machine Learning Designer**: Modülleri sürükleyip bırakma yöntemiyle deneyler oluşturmanıza ve düşük kodlu bir ortamda ardışık düzenler dağıtmanıza olanak tanır.
+- **Otomatik Makine Öğrenimi Arayüzü (AutoML)**: Makine öğrenimi modeli geliştirme sürecindeki yinelemeli görevleri otomatikleştirir, yüksek ölçek, verimlilik ve üretkenlikle ML modelleri oluşturmanıza olanak tanır, model kalitesini korurken.
+- **Veri Etiketleme**: Verileri otomatik olarak etiketlemek için destekli bir ML aracıdır.
+- **Visual Studio Code için Makine Öğrenimi Uzantısı**: ML projeleri oluşturmak ve yönetmek için tam özellikli bir geliştirme ortamı sağlar.
+- **Makine Öğrenimi CLI**: Komut satırından Azure ML kaynaklarını yönetmek için komutlar sağlar.
+- **PyTorch, TensorFlow, Scikit-learn gibi açık kaynaklı çerçevelerle entegrasyon**: Eğitim, dağıtım ve uçtan uca makine öğrenimi sürecini yönetmek için.
+- **MLflow**: Makine öğrenimi deneylerinizin yaşam döngüsünü yönetmek için açık kaynaklı bir kütüphanedir. **MLFlow Takibi**, deney ortamınızdan bağımsız olarak eğitim çalıştırma metriklerinizi ve model eserlerinizi kaydeden ve izleyen bir MLflow bileşenidir.
+
+### 1.2 Kalp Yetmezliği Tahmin Projesi:
+
+Projeler yapmak ve oluşturmak, becerilerinizi ve bilginizi test etmenin en iyi yoludur. Bu derste, Azure ML Studio'da kalp yetmezliği saldırılarını tahmin etmek için bir veri bilimi projesi oluşturmanın iki farklı yolunu keşfedeceğiz: Düşük kod/Hiç kod ve Azure ML SDK kullanarak. Aşağıdaki şemada gösterildiği gibi:
+
+
+
+Her yöntemin kendi avantajları ve dezavantajları vardır. Düşük kod/Hiç kod yöntemi, bir GUI (Grafiksel Kullanıcı Arayüzü) ile etkileşim içerdiğinden, kod bilgisi gerektirmeden başlamak için daha kolaydır. Bu yöntem, projenin uygulanabilirliğini hızlı bir şekilde test etmeyi ve POC (Kavram Kanıtı) oluşturmayı sağlar. Ancak, proje büyüdükçe ve üretime hazır hale gelmesi gerektiğinde, GUI üzerinden kaynak oluşturmak uygun değildir. Kaynakların oluşturulmasından modelin dağıtımına kadar her şeyi programlı bir şekilde otomatikleştirmemiz gerekir. İşte bu noktada Azure ML SDK'yı nasıl kullanacağınızı bilmek kritik hale gelir.
+
+| | Düşük Kod/Hiç Kod | Azure ML SDK |
+|-------------------|------------------|---------------------------|
+| Kod Bilgisi | Gerekli değil | Gerekli |
+| Geliştirme Süresi | Hızlı ve kolay | Kod bilgisine bağlı |
+| Üretime Hazır | Hayır | Evet |
+
+### 1.3 Kalp Yetmezliği Veri Seti:
+
+Kardiyovasküler hastalıklar (CVD'ler), dünya çapında ölümlerin %31'ini oluşturarak küresel olarak bir numaralı ölüm nedenidir. Tütün kullanımı, sağlıksız beslenme ve obezite, fiziksel hareketsizlik ve zararlı alkol kullanımı gibi çevresel ve davranışsal risk faktörleri, tahmin modelleri için özellik olarak kullanılabilir. Bir CVD'nin gelişme olasılığını tahmin edebilmek, yüksek riskli kişilerde saldırıları önlemek için büyük fayda sağlayabilir.
+
+Kaggle, bu proje için kullanacağımız [Kalp Yetmezliği veri setini](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) halka açık hale getirmiştir. Veri setini şimdi indirebilirsiniz. Bu, 13 sütun (12 özellik ve 1 hedef değişken) ve 299 satırdan oluşan bir tabular veri setidir.
+
+| | Değişken Adı | Tür | Açıklama | Örnek |
+|----|---------------------------|-----------------|--------------------------------------------------------|-------------------|
+| 1 | age | sayısal | Hastanın yaşı | 25 |
+| 2 | anaemia | boolean | Kırmızı kan hücreleri veya hemoglobin azalması | 0 veya 1 |
+| 3 | creatinine_phosphokinase | sayısal | Kanda CPK enzimi seviyesi | 542 |
+| 4 | diabetes | boolean | Hastanın diyabeti olup olmadığı | 0 veya 1 |
+| 5 | ejection_fraction | sayısal | Her kasılmada kalpten çıkan kan yüzdesi | 45 |
+| 6 | high_blood_pressure | boolean | Hastanın hipertansiyonu olup olmadığı | 0 veya 1 |
+| 7 | platelets | sayısal | Kanda bulunan trombositler | 149000 |
+| 8 | serum_creatinine | sayısal | Kanda serum kreatinin seviyesi | 0.5 |
+| 9 | serum_sodium | sayısal | Kanda serum sodyum seviyesi | jun |
+| 10 | sex | boolean | Kadın veya erkek | 0 veya 1 |
+| 11 | smoking | boolean | Hastanın sigara içip içmediği | 0 veya 1 |
+| 12 | time | sayısal | Takip süresi (gün) | 4 |
+|----|---------------------------|-----------------|--------------------------------------------------------|-------------------|
+| 21 | DEATH_EVENT [Hedef] | boolean | Takip süresi içinde hastanın ölüp ölmediği | 0 veya 1 |
+
+Veri setini aldıktan sonra, Azure'da projeye başlayabiliriz.
+
+## 2. Azure ML Studio'da Düşük Kod/Hiç Kod ile Model Eğitimi
+### 2.1 Azure ML Çalışma Alanı Oluşturma
+Azure ML'de bir model eğitmek için önce bir Azure ML çalışma alanı oluşturmanız gerekir. Çalışma alanı, Azure Machine Learning için üst düzey bir kaynaktır ve Azure Machine Learning kullanırken oluşturduğunuz tüm eserlerle çalışmak için merkezi bir yer sağlar. Çalışma alanı, günlükler, metrikler, çıktı ve komut dosyalarınızın bir anlık görüntüsü dahil olmak üzere tüm eğitim çalıştırmalarının geçmişini tutar. Bu bilgileri, hangi eğitim çalıştırmasının en iyi modeli ürettiğini belirlemek için kullanırsınız. [Daha fazla bilgi edinin](https://docs.microsoft.com/azure/machine-learning/concept-workspace?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+En güncel işletim sisteminizle uyumlu tarayıcıyı kullanmanız önerilir. Desteklenen tarayıcılar şunlardır:
+
+- Microsoft Edge (Yeni Microsoft Edge, en son sürüm. Microsoft Edge legacy değil)
+- Safari (en son sürüm, yalnızca Mac)
+- Chrome (en son sürüm)
+- Firefox (en son sürüm)
+
+Azure Machine Learning'i kullanmak için Azure aboneliğinizde bir çalışma alanı oluşturun. Daha sonra bu çalışma alanını, makine öğrenimi iş yüklerinizle ilgili veri, hesaplama kaynakları, kod, modeller ve diğer eserleri yönetmek için kullanabilirsiniz.
+
+> **_NOT:_** Azure aboneliğiniz, Azure Machine Learning çalışma alanı aboneliğinizde var olduğu sürece veri depolama için küçük bir miktar ücretlendirilir, bu nedenle artık kullanmadığınızda Azure Machine Learning çalışma alanını silmenizi öneririz.
+
+1. Microsoft kimlik bilgilerinizi kullanarak [Azure portalına](https://ms.portal.azure.com/) giriş yapın.
+2. **+Kaynak Oluştur** seçeneğini seçin
+
+ 
+
+ Machine Learning'i arayın ve Machine Learning kutucuğunu seçin
+
+ 
+
+ Oluştur düğmesine tıklayın
+
+ 
+
+ Ayarları şu şekilde doldurun:
+ - Abonelik: Azure aboneliğiniz
+ - Kaynak grubu: Bir kaynak grubu oluşturun veya seçin
+ - Çalışma alanı adı: Çalışma alanınız için benzersiz bir ad girin
+ - Bölge: Size en yakın coğrafi bölgeyi seçin
+ - Depolama hesabı: Çalışma alanınız için oluşturulacak varsayılan yeni depolama hesabını not edin
+ - Anahtar kasası: Çalışma alanınız için oluşturulacak varsayılan yeni anahtar kasasını not edin
+ - Uygulama içgörüleri: Çalışma alanınız için oluşturulacak varsayılan yeni uygulama içgörüleri kaynağını not edin
+ - Kapsayıcı kaydı: Yok (bir model ilk kez bir kapsayıcıya dağıtıldığında otomatik olarak oluşturulacaktır)
+
+ 
+
+ - İnceleme + oluştur düğmesine tıklayın ve ardından oluştur düğmesine tıklayın
+3. Çalışma alanınızın oluşturulmasını bekleyin (bu birkaç dakika sürebilir). Daha sonra Azure hizmeti üzerinden Machine Learning'i bulup portaldan ona gidin.
+4. Çalışma alanınızın Genel Bakış sayfasında, Azure Machine Learning stüdyosunu başlatın (veya yeni bir tarayıcı sekmesi açarak https://ml.azure.com adresine gidin) ve Microsoft hesabınızı kullanarak Azure Machine Learning stüdyosuna giriş yapın. İstendiğinde, Azure dizininizi ve aboneliğinizi ve Azure Machine Learning çalışma alanınızı seçin.
+
+
+
+5. Azure Machine Learning stüdyosunda, arayüzdeki çeşitli sayfaları görüntülemek için sol üstteki ☰ simgesini değiştirin. Çalışma alanınızdaki kaynakları yönetmek için bu sayfaları kullanabilirsiniz.
+
+
+
+Çalışma alanınızı Azure portalını kullanarak yönetebilirsiniz, ancak veri bilimciler ve Makine Öğrenimi operasyon mühendisleri için Azure Machine Learning Studio, çalışma alanı kaynaklarını yönetmek için daha odaklanmış bir kullanıcı arayüzü sağlar.
+
+### 2.2 Hesaplama Kaynakları
+
+Hesaplama Kaynakları, model eğitimi ve veri keşfi süreçlerini çalıştırabileceğiniz bulut tabanlı kaynaklardır. Oluşturabileceğiniz dört tür hesaplama kaynağı vardır:
+
+- **Hesaplama Örnekleri**: Veri bilimcilerin veri ve modellerle çalışmak için kullanabileceği geliştirme iş istasyonları. Bu, bir Sanal Makine (VM) oluşturmayı ve bir notebook örneğini başlatmayı içerir. Daha sonra bir notebook'tan bir hesaplama kümesi çağırarak bir model eğitebilirsiniz.
+- **Hesaplama Kümeleri**: Deney kodunun talep üzerine işlenmesi için ölçeklenebilir VM kümeleri. Model eğitirken buna ihtiyacınız olacak. Hesaplama kümeleri ayrıca özel GPU veya CPU kaynaklarını da kullanabilir.
+- **Çıkarım Kümeleri**: Eğitilmiş modellerinizi kullanan tahmin hizmetleri için dağıtım hedefleri.
+- **Bağlı Hesaplama**: Sanal Makineler veya Azure Databricks kümeleri gibi mevcut Azure hesaplama kaynaklarına bağlantılar.
+
+#### 2.2.1 Hesaplama Kaynaklarınız için Doğru Seçenekleri Seçmek
+
+Bir hesaplama kaynağı oluştururken dikkate alınması gereken bazı önemli faktörler vardır ve bu seçimler kritik kararlar olabilir.
+
+**CPU'ya mı yoksa GPU'ya mı ihtiyacınız var?**
+
+CPU (Merkezi İşlem Birimi), bir bilgisayar programını oluşturan talimatları yürüten elektronik devredir. GPU (Grafik İşlem Birimi) ise grafikle ilgili kodları çok yüksek bir hızda çalıştırabilen özel bir elektronik devredir.
+
+CPU ve GPU mimarisi arasındaki temel fark, bir CPU'nun geniş bir görev yelpazesini hızlı bir şekilde (CPU saat hızıyla ölçülür) gerçekleştirmek için tasarlanmış olmasıdır, ancak aynı anda çalıştırılabilecek görevlerin eşzamanlılığı sınırlıdır. GPU'lar ise paralel hesaplama için tasarlanmıştır ve bu nedenle derin öğrenme görevlerinde çok daha iyidir.
+
+| CPU | GPU |
+|-----------------------------------------|-----------------------------|
+| Daha ucuz | Daha pahalı |
+| Daha düşük eşzamanlılık seviyesi | Daha yüksek eşzamanlılık seviyesi |
+| Derin öğrenme modellerini eğitmede daha yavaş | Derin öğrenme için ideal |
+
+**Küme Boyutu**
+
+Daha büyük kümeler daha pahalıdır ancak daha iyi yanıt süresi sağlar. Bu nedenle, zamanınız varsa ancak yeterli paranız yoksa, küçük bir küme ile başlamalısınız. Tersine, paranız varsa ancak fazla zamanınız yoksa, daha büyük bir küme ile başlamalısınız.
+
+**VM Boyutu**
+
+Zaman ve bütçe kısıtlamalarınıza bağlı olarak, RAM boyutunu, disk kapasitesini, çekirdek sayısını ve saat hızını değiştirebilirsiniz. Bu parametrelerin tümünü artırmak daha maliyetli olacaktır, ancak daha iyi performans sağlayacaktır.
+
+**Adanmış mı Yoksa Düşük Öncelikli Örnekler mi?**
+
+Düşük öncelikli bir örnek, kesintiye uğrayabilir anlamına gelir: Temelde, Microsoft Azure bu kaynakları alıp başka bir göreve atayabilir ve böylece bir işi kesintiye uğratabilir. Adanmış bir örnek, yani kesintiye uğramayan bir örnek, işin sizin izniniz olmadan asla sonlandırılmayacağı anlamına gelir. Bu, zaman ve para arasında başka bir denge noktasıdır, çünkü kesintiye uğrayabilir örnekler adanmış olanlardan daha ucuzdur.
+
+#### 2.2.2 Bir Hesaplama Kümesi Oluşturma
+
+Daha önce oluşturduğumuz [Azure ML çalışma alanında](https://ml.azure.com/), hesaplamaya gidin ve az önce tartıştığımız farklı hesaplama kaynaklarını (ör. hesaplama örnekleri, hesaplama kümeleri, çıkarım kümeleri ve bağlı hesaplama) görebilirsiniz. Bu proje için, model eğitimi için bir hesaplama kümesine ihtiyacımız olacak. Studio'da, "Hesaplama" menüsüne, ardından "Hesaplama kümesi" sekmesine tıklayın ve bir hesaplama kümesi oluşturmak için "+ Yeni" düğmesine tıklayın.
+
+
+
+1. Seçeneklerinizi seçin: Adanmış mı yoksa Düşük öncelikli mi, CPU mu yoksa GPU mu, VM boyutu ve çekirdek sayısı (bu proje için varsayılan ayarları koruyabilirsiniz).
+2. İleri düğmesine tıklayın.
+
+
+
+3. Küme için bir ad verin.
+4. Seçeneklerinizi belirleyin: Minimum/Maksimum düğüm sayısı, ölçek küçültmeden önceki boşta bekleme süresi, SSH erişimi. Minimum düğüm sayısı 0 ise, küme boşta olduğunda para tasarrufu yaparsınız. Maksimum düğüm sayısı ne kadar yüksekse, eğitim o kadar kısa sürecektir. Önerilen maksimum düğüm sayısı 3'tür.
+5. "Oluştur" düğmesine tıklayın. Bu adım birkaç dakika sürebilir.
+
+
+
+Harika! Artık bir Hesaplama kümesine sahibiz, şimdi verileri Azure ML Studio'ya yüklememiz gerekiyor.
+
+### 2.3 Veri Kümesini Yükleme
+
+1. Daha önce oluşturduğumuz [Azure ML çalışma alanında](https://ml.azure.com/), sol menüde "Veri Kümeleri"ne tıklayın ve bir veri kümesi oluşturmak için "+ Veri Kümesi Oluştur" düğmesine tıklayın. "Yerel dosyalardan" seçeneğini seçin ve daha önce indirdiğimiz Kaggle veri kümesini seçin.
+
+ 
+
+2. Veri kümesine bir ad, bir tür ve bir açıklama verin. İleri'ye tıklayın. Dosyalardan veriyi yükleyin. İleri'ye tıklayın.
+
+ 
+
+3. Şemada, şu özellikler için veri türünü Boolean olarak değiştirin: anemi, diyabet, yüksek tansiyon, cinsiyet, sigara içme ve ÖLÜM_OLAYI. İleri'ye ve ardından Oluştur'a tıklayın.
+
+ 
+
+Harika! Artık veri kümesi yerinde ve hesaplama kümesi oluşturuldu, modelin eğitimine başlayabiliriz!
+
+### 2.4 Kod Yazmadan veya Az Kodla AutoML ile Eğitim
+
+Geleneksel makine öğrenimi modeli geliştirme, kaynak yoğun, önemli ölçüde alan bilgisi ve zaman gerektiren bir süreçtir ve onlarca modeli üretip karşılaştırmayı içerir. Otomatik makine öğrenimi (AutoML), makine öğrenimi modeli geliştirme sürecindeki zaman alıcı, yinelemeli görevleri otomatikleştirme sürecidir. Veri bilimcilerin, analistlerin ve geliştiricilerin yüksek ölçek, verimlilik ve üretkenlikle ML modelleri oluşturmasına olanak tanır ve model kalitesini korur. Üretime hazır ML modellerine ulaşma süresini büyük ölçüde kısaltır. [Daha fazla bilgi edinin](https://docs.microsoft.com/azure/machine-learning/concept-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+1. Daha önce oluşturduğumuz [Azure ML çalışma alanında](https://ml.azure.com/) sol menüde "Otomatik ML"ye tıklayın ve az önce yüklediğiniz veri kümesini seçin. İleri'ye tıklayın.
+
+ 
+
+2. Yeni bir deney adı, hedef sütun (ÖLÜM_OLAYI) ve oluşturduğumuz hesaplama kümesini girin. İleri'ye tıklayın.
+
+ 
+
+3. "Sınıflandırma"yı seçin ve Bitir'e tıklayın. Bu adım, hesaplama kümenizin boyutuna bağlı olarak 30 dakika ile 1 saat arasında sürebilir.
+
+ 
+
+4. Çalışma tamamlandığında, "Otomatik ML" sekmesine tıklayın, çalışmanıza tıklayın ve "En iyi model özeti" kartındaki Algoritmaya tıklayın.
+
+ 
+
+Burada AutoML'nin oluşturduğu en iyi modelin ayrıntılı bir açıklamasını görebilirsiniz. Modeller sekmesinde oluşturulan diğer modelleri de keşfedebilirsiniz. Açıklamalar (önizleme düğmesi) bölümünde modelleri birkaç dakika inceleyin. Kullanmak istediğiniz modeli seçtikten sonra (burada AutoML tarafından seçilen en iyi modeli seçeceğiz), modelin nasıl dağıtılacağını göreceğiz.
+
+## 3. Kod Yazmadan veya Az Kodla Model Dağıtımı ve Uç Nokta Tüketimi
+### 3.1 Model Dağıtımı
+
+Otomatik makine öğrenimi arayüzü, en iyi modeli birkaç adımda bir web hizmeti olarak dağıtmanıza olanak tanır. Dağıtım, modelin yeni verilere dayalı tahminler yapabilmesi ve potansiyel fırsat alanlarını belirleyebilmesi için entegrasyonudur. Bu proje için, bir web hizmetine dağıtım, tıbbi uygulamaların modelden yararlanarak hastalarının kalp krizi riskini canlı olarak tahmin edebilmesi anlamına gelir.
+
+En iyi model açıklamasında, "Dağıt" düğmesine tıklayın.
+
+
+
+15. Bir ad, bir açıklama, hesaplama türü (Azure Container Instance), kimlik doğrulamayı etkinleştirin ve Dağıt'a tıklayın. Bu adım yaklaşık 20 dakika sürebilir. Dağıtım süreci, modeli kaydetme, kaynakları oluşturma ve web hizmeti için yapılandırmayı içerir. Dağıtım durumu altında bir durum mesajı görünür. Dağıtım durumunu kontrol etmek için periyodik olarak Yenile'ye tıklayın. Durum "Sağlıklı" olduğunda dağıtılmış ve çalışıyor olacaktır.
+
+
+
+16. Dağıtım tamamlandığında, Uç Nokta sekmesine tıklayın ve az önce dağıttığınız uç noktaya tıklayın. Burada uç nokta hakkında bilmeniz gereken tüm ayrıntıları bulabilirsiniz.
+
+
+
+Harika! Artık bir model dağıttık, uç noktanın tüketimine başlayabiliriz.
+
+### 3.2 Uç Nokta Tüketimi
+
+"Consume" sekmesine tıklayın. Burada REST uç noktası ve tüketim seçeneğinde bir Python betiği bulabilirsiniz. Python kodunu okumak için biraz zaman ayırın.
+
+Bu betik, doğrudan yerel makinenizden çalıştırılabilir ve uç noktanızı tüketecektir.
+
+
+
+Bu iki satır koda dikkat edin:
+
+```python
+url = 'http://98e3715f-xxxx-xxxx-xxxx-9ec22d57b796.centralus.azurecontainer.io/score'
+api_key = '' # Replace this with the API key for the web service
+```
+`url` değişkeni, tüketim sekmesinde bulunan REST uç noktasıdır ve `api_key` değişkeni, kimlik doğrulamayı etkinleştirdiyseniz tüketim sekmesinde bulunan birincil anahtardır. Betik, uç noktayı bu şekilde tüketebilir.
+
+18. Betiği çalıştırdığınızda, aşağıdaki çıktıyı görmelisiniz:
+ ```python
+ b'"{\\"result\\": [true]}"'
+ ```
+Bu, verilen veriler için kalp yetmezliği tahmininin doğru olduğu anlamına gelir. Bu mantıklıdır çünkü betikte otomatik olarak oluşturulan verilere daha yakından bakarsanız, her şey varsayılan olarak 0 ve yanlış durumdadır. Verileri şu giriş örneğiyle değiştirebilirsiniz:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "0",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "0",
+ 'diabetes': "false",
+ 'ejection_fraction': "0",
+ 'high_blood_pressure': "false",
+ 'platelets': "0",
+ 'serum_creatinine': "0",
+ 'serum_sodium': "0",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "0",
+ },
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+```
+Betik şu çıktıyı döndürmelidir:
+ ```python
+ b'"{\\"result\\": [true, false]}"'
+ ```
+
+Tebrikler! Modeli dağıttınız ve Azure ML üzerinde eğittiniz!
+
+> **_NOT:_** Projeyi tamamladıktan sonra, tüm kaynakları silmeyi unutmayın.
+## 🚀 Zorluk
+
+AutoML'nin en iyi modeller için oluşturduğu model açıklamalarına ve ayrıntılarına yakından bakın. En iyi modelin neden diğerlerinden daha iyi olduğunu anlamaya çalışın. Hangi algoritmalar karşılaştırıldı? Aralarındaki farklar nelerdir? Bu durumda en iyi model neden daha iyi performans gösteriyor?
+
+## [Ders Sonrası Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/35)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bu derste, bulutta kod yazmadan veya az kodla kalp yetmezliği riskini tahmin etmek için bir modeli nasıl eğiteceğinizi, dağıtacağınızı ve tüketeceğinizi öğrendiniz. Henüz yapmadıysanız, AutoML'nin en iyi modeller için oluşturduğu model açıklamalarına daha derinlemesine dalın ve en iyi modelin neden diğerlerinden daha iyi olduğunu anlamaya çalışın.
+
+Kod yazmadan veya az kodla AutoML hakkında daha fazla bilgi edinmek için bu [belgeyi](https://docs.microsoft.com/azure/machine-learning/tutorial-first-experiment-automated-ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) okuyabilirsiniz.
+
+## Ödev
+
+[Azure ML üzerinde Kod Yazmadan veya Az Kodla Veri Bilimi Projesi](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/18-Low-Code/assignment.md b/translations/tr/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
new file mode 100644
index 00000000..7912a28f
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/18-Low-Code/assignment.md
@@ -0,0 +1,25 @@
+
+# Azure ML'de Düşük Kod/Hiç Kod Kullanılmadan Veri Bilimi Projesi
+
+## Talimatlar
+
+Azure ML platformunu kullanarak bir modeli düşük kod/hiç kod yöntemiyle nasıl eğiteceğimizi, dağıtacağımızı ve tüketeceğimizi gördük. Şimdi, başka bir modeli eğitmek, dağıtmak ve tüketmek için kullanabileceğiniz bazı veriler arayın. [Kaggle](https://kaggle.com) ve [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) üzerinde veri kümeleri bulabilirsiniz.
+
+## Değerlendirme Kriterleri
+
+| Örnek Niteliğinde | Yeterli | Geliştirmeye Açık |
+|--------------------|---------|-------------------|
+|Veriyi yüklerken, gerekirse özellik türlerini değiştirmeye dikkat ettiniz. Ayrıca, gerekiyorsa veriyi temizlediniz. Bir veri kümesi üzerinde AutoML ile bir eğitim gerçekleştirdiniz ve model açıklamalarını kontrol ettiniz. En iyi modeli dağıttınız ve onu tüketebildiniz. | Veriyi yüklerken, gerekirse özellik türlerini değiştirmeye dikkat ettiniz. Bir veri kümesi üzerinde AutoML ile bir eğitim gerçekleştirdiniz, en iyi modeli dağıttınız ve onu tüketebildiniz. | AutoML tarafından eğitilen en iyi modeli dağıttınız ve onu tüketebildiniz. |
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/19-Azure/README.md b/translations/tr/5-Data-Science-In-Cloud/19-Azure/README.md
new file mode 100644
index 00000000..14d09a52
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/19-Azure/README.md
@@ -0,0 +1,317 @@
+
+# Bulutta Veri Bilimi: "Azure ML SDK" Yöntemi
+
+| ](../../sketchnotes/19-DataScience-Cloud.png)|
+|:---:|
+| Bulutta Veri Bilimi: Azure ML SDK - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+İçindekiler:
+
+- [Bulutta Veri Bilimi: "Azure ML SDK" Yöntemi](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Ders Öncesi Test](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1. Giriş](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.1 Azure ML SDK Nedir?](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [1.2 Kalp yetmezliği tahmin projesi ve veri kümesi tanıtımı](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2. Azure ML SDK ile bir model eğitmek](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.1 Bir Azure ML çalışma alanı oluşturma](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.2 Bir hesaplama örneği oluşturma](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.3 Veri Kümesini Yükleme](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.4 Not Defterleri Oluşturma](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5 Bir model eğitmek](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.1 Çalışma alanı, deney, hesaplama kümesi ve veri kümesini ayarlama](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [2.5.2 AutoML Yapılandırması ve eğitim](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3. Azure ML SDK ile model dağıtımı ve uç nokta tüketimi](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.1 En iyi modeli kaydetme](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.2 Model Dağıtımı](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [3.3 Uç nokta tüketimi](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [🚀 Meydan Okuma](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Ders Sonrası Test](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Gözden Geçirme ve Kendi Kendine Çalışma](../../../../5-Data-Science-In-Cloud/19-Azure)
+ - [Ödev](../../../../5-Data-Science-In-Cloud/19-Azure)
+
+## [Ders Öncesi Test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/36)
+
+## 1. Giriş
+
+### 1.1 Azure ML SDK Nedir?
+
+Veri bilimciler ve yapay zeka geliştiricileri, Azure Machine Learning SDK'sını kullanarak Azure Machine Learning hizmetiyle makine öğrenimi iş akışları oluşturur ve çalıştırır. Bu hizmetle Jupyter Notebooks, Visual Studio Code veya favori Python IDE'niz gibi herhangi bir Python ortamında etkileşim kurabilirsiniz.
+
+SDK'nın temel alanları şunlardır:
+
+- Makine öğrenimi deneylerinde kullanılan veri kümelerinin yaşam döngüsünü keşfetme, hazırlama ve yönetme.
+- Makine öğrenimi deneylerinizi izlemek, günlük kaydı yapmak ve düzenlemek için bulut kaynaklarını yönetme.
+- Modelleri yerel olarak veya GPU hızlandırmalı model eğitimi dahil olmak üzere bulut kaynaklarını kullanarak eğitme.
+- Yapılandırma parametrelerini ve eğitim verilerini kabul eden otomatik makine öğrenimini kullanma. Bu, algoritmalar ve hiperparametre ayarları arasında otomatik olarak iterasyon yaparak tahmin çalıştırmak için en iyi modeli bulur.
+- Eğitilmiş modellerinizi RESTful hizmetlere dönüştürmek için web hizmetleri dağıtma ve bu hizmetleri herhangi bir uygulamada kullanma.
+
+[Azure Machine Learning SDK hakkında daha fazla bilgi edinin](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109)
+
+[Önceki derste](../18-Low-Code/README.md), bir modeli Düşük Kod/Hiç Kod kullanarak nasıl eğiteceğimizi, dağıtacağımızı ve tüketeceğimizi gördük. Kalp Yetmezliği veri kümesini kullanarak bir Kalp Yetmezliği tahmin modeli oluşturduk. Bu derste, aynı işlemi Azure Machine Learning SDK'sını kullanarak gerçekleştireceğiz.
+
+
+
+### 1.2 Kalp yetmezliği tahmin projesi ve veri kümesi tanıtımı
+
+Kalp yetmezliği tahmin projesi ve veri kümesi tanıtımı için [buraya](../18-Low-Code/README.md) göz atın.
+
+## 2. Azure ML SDK ile bir model eğitmek
+
+### 2.1 Bir Azure ML çalışma alanı oluşturma
+
+Basitlik açısından, bir jupyter not defteri üzerinde çalışacağız. Bu, zaten bir Çalışma Alanınız ve bir hesaplama örneğiniz olduğu anlamına gelir. Eğer zaten bir Çalışma Alanınız varsa, doğrudan **2.3 Not Defteri Oluşturma** bölümüne geçebilirsiniz.
+
+Eğer yoksa, bir çalışma alanı oluşturmak için [önceki dersteki](../18-Low-Code/README.md) **2.1 Bir Azure ML çalışma alanı oluşturma** bölümündeki talimatları izleyin.
+
+### 2.2 Bir hesaplama örneği oluşturma
+
+Daha önce oluşturduğumuz [Azure ML çalışma alanına](https://ml.azure.com/) gidin, hesaplama menüsüne tıklayın ve mevcut hesaplama kaynaklarını göreceksiniz.
+
+
+
+Bir jupyter not defteri sağlamak için bir hesaplama örneği oluşturalım.
+1. + Yeni düğmesine tıklayın.
+2. Hesaplama örneğinize bir ad verin.
+3. Seçeneklerinizi belirleyin: CPU veya GPU, VM boyutu ve çekirdek sayısı.
+4. Oluştur düğmesine tıklayın.
+
+Tebrikler, bir hesaplama örneği oluşturdunuz! Bu hesaplama örneğini [Not Defterleri Oluşturma](../../../../5-Data-Science-In-Cloud/19-Azure) bölümünde bir Not Defteri oluşturmak için kullanacağız.
+
+### 2.3 Veri Kümesini Yükleme
+
+Eğer veri kümesini henüz yüklemediyseniz, [önceki dersteki](../18-Low-Code/README.md) **2.3 Veri Kümesini Yükleme** bölümüne bakın.
+
+### 2.4 Not Defterleri Oluşturma
+
+> **_NOT:_** Bir sonraki adım için ya sıfırdan yeni bir not defteri oluşturabilir ya da [oluşturduğumuz not defterini](notebook.ipynb) Azure ML Studio'ya yükleyebilirsiniz. Yüklemek için, "Not Defteri" menüsüne tıklayın ve not defterini yükleyin.
+
+Not defterleri, veri bilimi sürecinin gerçekten önemli bir parçasıdır. Keşifsel Veri Analizi (EDA) yapmak, bir model eğitmek için bir hesaplama kümesine çağrı yapmak veya bir uç nokta dağıtmak için bir çıkarım kümesine çağrı yapmak için kullanılabilirler.
+
+Bir Not Defteri oluşturmak için, jupyter not defteri örneğini çalıştıran bir hesaplama düğümüne ihtiyacımız var. [Azure ML çalışma alanına](https://ml.azure.com/) geri dönün ve Hesaplama örneklerine tıklayın. Daha önce oluşturduğumuz [hesaplama örneğini](../../../../5-Data-Science-In-Cloud/19-Azure) listede görmelisiniz.
+
+1. Uygulamalar bölümünde, Jupyter seçeneğine tıklayın.
+2. "Evet, anladım" kutusunu işaretleyin ve Devam düğmesine tıklayın.
+
+3. Bu, aşağıdaki gibi jupyter not defteri örneğinizle yeni bir tarayıcı sekmesi açmalıdır. Yeni bir not defteri oluşturmak için "Yeni" düğmesine tıklayın.
+
+
+
+Artık bir Not Defterimiz olduğuna göre, Azure ML SDK ile modeli eğitmeye başlayabiliriz.
+
+### 2.5 Bir model eğitmek
+
+Herhangi bir şüpheniz olduğunda, [Azure ML SDK belgelerine](https://docs.microsoft.com/python/api/overview/azure/ml?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) başvurun. Bu belgeler, bu derste göreceğimiz modülleri anlamak için gerekli tüm bilgileri içerir.
+
+#### 2.5.1 Çalışma alanı, deney, hesaplama kümesi ve veri kümesini ayarlama
+
+`workspace` nesnesini yapılandırma dosyasından aşağıdaki kodu kullanarak yüklemeniz gerekir:
+
+```python
+from azureml.core import Workspace
+ws = Workspace.from_config()
+```
+
+Bu, çalışma alanını temsil eden bir `Workspace` türünde bir nesne döndürür. Ardından, aşağıdaki kodu kullanarak bir `deney` oluşturmanız gerekir:
+
+```python
+from azureml.core import Experiment
+experiment_name = 'aml-experiment'
+experiment = Experiment(ws, experiment_name)
+```
+Bir çalışma alanından bir deneyi almak veya oluşturmak için, deney adını kullanarak deneyi talep edersiniz. Deney adı 3-36 karakter uzunluğunda olmalı, bir harf veya rakamla başlamalı ve yalnızca harfler, rakamlar, alt çizgiler ve tireler içerebilir. Çalışma alanında deney bulunamazsa, yeni bir deney oluşturulur.
+
+Şimdi, aşağıdaki kodu kullanarak eğitim için bir hesaplama kümesi oluşturmanız gerekir. Bu adım birkaç dakika sürebilir.
+
+```python
+from azureml.core.compute import AmlCompute
+
+aml_name = "heart-f-cluster"
+try:
+ aml_compute = AmlCompute(ws, aml_name)
+ print('Found existing AML compute context.')
+except:
+ print('Creating new AML compute context.')
+ aml_config = AmlCompute.provisioning_configuration(vm_size = "Standard_D2_v2", min_nodes=1, max_nodes=3)
+ aml_compute = AmlCompute.create(ws, name = aml_name, provisioning_configuration = aml_config)
+ aml_compute.wait_for_completion(show_output = True)
+
+cts = ws.compute_targets
+compute_target = cts[aml_name]
+```
+
+Veri kümesini, çalışma alanından veri kümesi adını kullanarak şu şekilde alabilirsiniz:
+
+```python
+dataset = ws.datasets['heart-failure-records']
+df = dataset.to_pandas_dataframe()
+df.describe()
+```
+
+#### 2.5.2 AutoML Yapılandırması ve eğitim
+
+AutoML yapılandırmasını ayarlamak için [AutoMLConfig sınıfını](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.automlconfig(class)?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) kullanın.
+
+Belgelerde açıklandığı gibi, oynayabileceğiniz birçok parametre vardır. Bu proje için aşağıdaki parametreleri kullanacağız:
+
+- `experiment_timeout_minutes`: Deneyin otomatik olarak durdurulmadan önce çalışmasına izin verilen maksimum süre (dakika cinsinden).
+- `max_concurrent_iterations`: Deney için izin verilen maksimum eşzamanlı eğitim iterasyonu sayısı.
+- `primary_metric`: Deneyin durumunu belirlemek için kullanılan birincil metrik.
+- `compute_target`: Otomatik Makine Öğrenimi deneyini çalıştırmak için kullanılan Azure Machine Learning hesaplama hedefi.
+- `task`: Çalıştırılacak görev türü. Değerler, çözülmesi gereken otomatik ML problemine bağlı olarak 'classification', 'regression' veya 'forecasting' olabilir.
+- `training_data`: Deneyde kullanılacak eğitim verileri. Hem eğitim özelliklerini hem de bir etiket sütununu (isteğe bağlı olarak bir örnek ağırlıkları sütunu) içermelidir.
+- `label_column_name`: Etiket sütununun adı.
+- `path`: Azure Machine Learning proje klasörünün tam yolu.
+- `enable_early_stopping`: Kısa vadede skor iyileşmiyorsa erken sonlandırmayı etkinleştirip etkinleştirmeme.
+- `featurization`: Özellik oluşturma adımının otomatik olarak yapılıp yapılmayacağını veya özelleştirilmiş özellik oluşturmanın kullanılıp kullanılmayacağını belirten gösterge.
+- `debug_log`: Hata ayıklama bilgilerini yazmak için günlük dosyası.
+
+```python
+from azureml.train.automl import AutoMLConfig
+
+project_folder = './aml-project'
+
+automl_settings = {
+ "experiment_timeout_minutes": 20,
+ "max_concurrent_iterations": 3,
+ "primary_metric" : 'AUC_weighted'
+}
+
+automl_config = AutoMLConfig(compute_target=compute_target,
+ task = "classification",
+ training_data=dataset,
+ label_column_name="DEATH_EVENT",
+ path = project_folder,
+ enable_early_stopping= True,
+ featurization= 'auto',
+ debug_log = "automl_errors.log",
+ **automl_settings
+ )
+```
+Yapılandırmanızı ayarladıktan sonra, aşağıdaki kodu kullanarak modeli eğitebilirsiniz. Bu adım, küme boyutunuza bağlı olarak bir saate kadar sürebilir.
+
+```python
+remote_run = experiment.submit(automl_config)
+```
+Farklı deneyleri göstermek için RunDetails widget'ını çalıştırabilirsiniz.
+```python
+from azureml.widgets import RunDetails
+RunDetails(remote_run).show()
+```
+
+## 3. Azure ML SDK ile model dağıtımı ve uç nokta tüketimi
+
+### 3.1 En iyi modeli kaydetme
+
+`remote_run`, [AutoMLRun](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) türünde bir nesnedir. Bu nesne, en iyi çalışmayı ve karşılık gelen eğitilmiş modeli döndüren `get_output()` yöntemini içerir.
+
+```python
+best_run, fitted_model = remote_run.get_output()
+```
+Kullanılan parametreleri görmek için fitted_model'i yazdırabilir ve en iyi modelin özelliklerini [get_properties()](https://docs.microsoft.com/python/api/azureml-core/azureml.core.run(class)?view=azure-ml-py#azureml_core_Run_get_properties?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) yöntemiyle görebilirsiniz.
+
+```python
+best_run.get_properties()
+```
+
+Şimdi modeli [register_model](https://docs.microsoft.com/python/api/azureml-train-automl-client/azureml.train.automl.run.automlrun?view=azure-ml-py#register-model-model-name-none--description-none--tags-none--iteration-none--metric-none-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) yöntemiyle kaydedin.
+```python
+model_name = best_run.properties['model_name']
+script_file_name = 'inference/score.py'
+best_run.download_file('outputs/scoring_file_v_1_0_0.py', 'inference/score.py')
+description = "aml heart failure project sdk"
+model = best_run.register_model(model_name = model_name,
+ model_path = './outputs/',
+ description = description,
+ tags = None)
+```
+
+### 3.2 Model Dağıtımı
+
+En iyi model kaydedildikten sonra, [InferenceConfig](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model.inferenceconfig?view=azure-ml-py?ocid=AID3041109) sınıfını kullanarak dağıtabilirsiniz. InferenceConfig, dağıtım için kullanılan özel bir ortamın yapılandırma ayarlarını temsil eder. [AciWebservice](https://docs.microsoft.com/python/api/azureml-core/azureml.core.webservice.aciwebservice?view=azure-ml-py) sınıfı, Azure Container Instances üzerinde bir web hizmeti uç noktası olarak dağıtılmış bir makine öğrenimi modelini temsil eder. Dağıtılmış bir hizmet, bir model, betik ve ilişkili dosyalardan oluşturulur. Ortaya çıkan web hizmeti, bir REST API ile yük dengelemesi yapılmış bir HTTP uç noktasıdır. Bu API'ye veri gönderebilir ve modelin döndürdüğü tahmini alabilirsiniz.
+
+Model, [deploy](https://docs.microsoft.com/python/api/azureml-core/azureml.core.model(class)?view=azure-ml-py#deploy-workspace--name--models--inference-config-none--deployment-config-none--deployment-target-none--overwrite-false--show-output-false-?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) yöntemiyle dağıtılır.
+
+```python
+from azureml.core.model import InferenceConfig, Model
+from azureml.core.webservice import AciWebservice
+
+inference_config = InferenceConfig(entry_script=script_file_name, environment=best_run.get_environment())
+
+aciconfig = AciWebservice.deploy_configuration(cpu_cores = 1,
+ memory_gb = 1,
+ tags = {'type': "automl-heart-failure-prediction"},
+ description = 'Sample service for AutoML Heart Failure Prediction')
+
+aci_service_name = 'automl-hf-sdk'
+aci_service = Model.deploy(ws, aci_service_name, [model], inference_config, aciconfig)
+aci_service.wait_for_deployment(True)
+print(aci_service.state)
+```
+Bu adım birkaç dakika sürebilir.
+
+### 3.3 Uç nokta tüketimi
+
+Uç noktanızı bir örnek giriş oluşturarak tüketebilirsiniz:
+
+```python
+data = {
+ "data":
+ [
+ {
+ 'age': "60",
+ 'anaemia': "false",
+ 'creatinine_phosphokinase': "500",
+ 'diabetes': "false",
+ 'ejection_fraction': "38",
+ 'high_blood_pressure': "false",
+ 'platelets': "260000",
+ 'serum_creatinine': "1.40",
+ 'serum_sodium': "137",
+ 'sex': "false",
+ 'smoking': "false",
+ 'time': "130",
+ },
+ ],
+}
+
+test_sample = str.encode(json.dumps(data))
+```
+Ve ardından bu girişi tahmin için modelinize gönderebilirsiniz:
+```python
+response = aci_service.run(input_data=test_sample)
+response
+```
+Bu, `'{"result": [false]}'` çıktısını vermelidir. Bu, uç noktaya gönderdiğimiz hasta girdisinin `false` tahminini ürettiği anlamına gelir, yani bu kişinin kalp krizi geçirme olasılığı düşük.
+
+Tebrikler! Azure ML SDK ile Azure ML üzerinde eğitilen ve dağıtılan modeli başarıyla tükettiniz!
+
+> **_NOT:_** Projeyi tamamladıktan sonra, tüm kaynakları silmeyi unutmayın.
+
+## 🚀 Zorluk
+
+SDK aracılığıyla yapabileceğiniz birçok başka şey var, ancak maalesef bu derste hepsini inceleyemiyoruz. İyi haber şu ki, SDK dokümantasyonunda gezinmeyi öğrenmek, kendi başınıza çok yol kat etmenizi sağlayabilir. Azure ML SDK dokümantasyonuna bir göz atın ve size boru hatları oluşturmanıza olanak tanıyan `Pipeline` sınıfını bulun. Bir Pipeline, bir iş akışı olarak yürütülebilen bir dizi adımdan oluşur.
+
+**İPUCU:** [SDK dokümantasyonu](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) sayfasına gidin ve arama çubuğuna "Pipeline" gibi anahtar kelimeler yazın. Arama sonuçlarında `azureml.pipeline.core.Pipeline` sınıfını bulmalısınız.
+
+## [Ders sonrası sınav](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/37)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Bu derste, Azure ML SDK ile bulutta kalp yetmezliği riskini tahmin etmek için bir modeli nasıl eğiteceğinizi, dağıtacağınızı ve tüketeceğinizi öğrendiniz. Azure ML SDK hakkında daha fazla bilgi için bu [dokümantasyonu](https://docs.microsoft.com/python/api/overview/azure/ml/?view=azure-ml-py?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) inceleyin. Azure ML SDK ile kendi modelinizi oluşturmaya çalışın.
+
+## Ödev
+
+[Azure ML SDK kullanarak Veri Bilimi projesi](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/19-Azure/assignment.md b/translations/tr/5-Data-Science-In-Cloud/19-Azure/assignment.md
new file mode 100644
index 00000000..45e731a5
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/19-Azure/assignment.md
@@ -0,0 +1,25 @@
+
+# Azure ML SDK kullanarak Veri Bilimi Projesi
+
+## Talimatlar
+
+Azure ML platformunu kullanarak bir modeli eğitme, dağıtma ve tüketme işlemlerini Azure ML SDK ile nasıl yapacağımızı gördük. Şimdi başka bir modeli eğitmek, dağıtmak ve tüketmek için kullanabileceğiniz bazı veriler arayın. [Kaggle](https://kaggle.com) ve [Azure Open Datasets](https://azure.microsoft.com/services/open-datasets/catalog?WT.mc_id=academic-77958-bethanycheum&ocid=AID3041109) üzerinde veri kümeleri arayabilirsiniz.
+
+## Değerlendirme Kriterleri
+
+| Örnek Niteliğinde | Yeterli | Geliştirme Gerekli |
+|--------------------|---------|--------------------|
+|AutoML Konfigürasyonu yaparken, kullanabileceğiniz parametreleri görmek için SDK dokümantasyonunu incelediniz. Azure ML SDK kullanarak bir veri kümesi üzerinde AutoML ile bir eğitim gerçekleştirdiniz ve model açıklamalarını kontrol ettiniz. En iyi modeli dağıttınız ve Azure ML SDK aracılığıyla tüketebildiniz. | Azure ML SDK kullanarak bir veri kümesi üzerinde AutoML ile bir eğitim gerçekleştirdiniz ve model açıklamalarını kontrol ettiniz. En iyi modeli dağıttınız ve Azure ML SDK aracılığıyla tüketebildiniz. | Azure ML SDK kullanarak bir veri kümesi üzerinde AutoML ile bir eğitim gerçekleştirdiniz. En iyi modeli dağıttınız ve Azure ML SDK aracılığıyla tüketebildiniz. |
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı bir yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/5-Data-Science-In-Cloud/README.md b/translations/tr/5-Data-Science-In-Cloud/README.md
new file mode 100644
index 00000000..5409ac40
--- /dev/null
+++ b/translations/tr/5-Data-Science-In-Cloud/README.md
@@ -0,0 +1,35 @@
+
+# Bulutta Veri Bilimi
+
+
+
+> Fotoğraf: [Jelleke Vanooteghem](https://unsplash.com/@ilumire) tarafından [Unsplash](https://unsplash.com/s/photos/cloud?orientation=landscape) üzerinden sağlanmıştır.
+
+Büyük veriyle veri bilimi yaparken, bulut gerçek bir oyun değiştirici olabilir. Önümüzdeki üç derste, bulutun ne olduğunu ve neden çok faydalı olabileceğini göreceğiz. Ayrıca bir kalp yetmezliği veri setini inceleyecek ve bir kişinin kalp yetmezliği yaşama olasılığını değerlendirmeye yardımcı olacak bir model oluşturacağız. Bulutun gücünü kullanarak bir modeli iki farklı şekilde eğitecek, dağıtacak ve tüketeceğiz. Birinci yöntem, yalnızca kullanıcı arayüzünü kullanarak Düşük Kod/Kodsuz bir yaklaşımla; ikinci yöntem ise Azure Machine Learning Yazılım Geliştirme Kiti'ni (Azure ML SDK) kullanarak olacak.
+
+
+
+### Konular
+
+1. [Neden Veri Bilimi için Bulut Kullanmalı?](17-Introduction/README.md)
+2. [Bulutta Veri Bilimi: "Düşük Kod/Kodsuz" Yöntem](18-Low-Code/README.md)
+3. [Bulutta Veri Bilimi: "Azure ML SDK" Yöntemi](19-Azure/README.md)
+
+### Katkıda Bulunanlar
+Bu dersler ☁️ ve 💕 ile [Maud Levy](https://twitter.com/maudstweets) ve [Tiffany Souterre](https://twitter.com/TiffanySouterre) tarafından yazılmıştır.
+
+Kalp Yetmezliği Tahmini projesi için kullanılan veriler [
+Larxel](https://www.kaggle.com/andrewmvd) tarafından [Kaggle](https://www.kaggle.com/andrewmvd/heart-failure-clinical-data) üzerinden sağlanmıştır. Veriler [Attribution 4.0 International (CC BY 4.0)](https://creativecommons.org/licenses/by/4.0/) lisansı altındadır.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/6-Data-Science-In-Wild/20-Real-World-Examples/README.md b/translations/tr/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
new file mode 100644
index 00000000..3b65c19f
--- /dev/null
+++ b/translations/tr/6-Data-Science-In-Wild/20-Real-World-Examples/README.md
@@ -0,0 +1,155 @@
+
+# Gerçek Dünyada Veri Bilimi
+
+|  ](../../sketchnotes/20-DataScience-RealWorld.png) |
+| :--------------------------------------------------------------------------------------------------------------: |
+| Gerçek Dünyada Veri Bilimi - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Bu öğrenme yolculuğunun sonuna yaklaşıyoruz!
+
+Veri biliminin ve etiğin tanımlarıyla başladık, veri analizi ve görselleştirme için çeşitli araçlar ve teknikleri keşfettik, veri bilimi yaşam döngüsünü gözden geçirdik ve bulut bilişim hizmetleriyle veri bilimi iş akışlarını ölçeklendirme ve otomatikleştirme konularına baktık. Muhtemelen şu soruyu soruyorsunuz: _"Tüm bu öğrendiklerimi gerçek dünya bağlamlarına nasıl uyarlayabilirim?"_
+
+Bu derste, veri biliminin endüstrideki gerçek dünya uygulamalarını keşfedeceğiz ve araştırma, dijital beşeri bilimler ve sürdürülebilirlik bağlamlarında belirli örneklere dalacağız. Öğrenci proje fırsatlarına bakacağız ve öğrenme yolculuğunuzu devam ettirmenize yardımcı olacak faydalı kaynaklarla sonlandıracağız!
+
+## Ders Öncesi Test
+
+[Ders öncesi test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/38)
+
+## Veri Bilimi + Endüstri
+
+Yapay zekanın demokratikleşmesi sayesinde, geliştiriciler artık yapay zeka destekli karar verme ve veri odaklı içgörüleri kullanıcı deneyimlerine ve geliştirme iş akışlarına entegre etmeyi daha kolay buluyor. İşte veri biliminin endüstrideki gerçek dünya uygulamalarına nasıl "uygulandığına" dair birkaç örnek:
+
+ * [Google Flu Trends](https://www.wired.com/2015/10/can-learn-epic-failure-google-flu-trends/) veri bilimi kullanarak arama terimlerini grip trendleriyle ilişkilendirdi. Yaklaşımın kusurları olsa da, veri odaklı sağlık tahminlerinin olasılıkları (ve zorlukları) konusunda farkındalık yarattı.
+
+ * [UPS Routing Predictions](https://www.technologyreview.com/2018/11/21/139000/how-ups-uses-ai-to-outsmart-bad-weather/) - UPS'in hava koşulları, trafik desenleri, teslimat süreleri ve daha fazlasını dikkate alarak teslimat için en uygun rotaları tahmin etmek için veri bilimi ve makine öğrenimini nasıl kullandığını açıklar.
+
+ * [NYC Taxicab Route Visualization](http://chriswhong.github.io/nyctaxi/) - [Bilgi Edinme Özgürlüğü Yasaları](https://chriswhong.com/open-data/foil_nyc_taxi/) kullanılarak toplanan veriler, NYC taksilerinin yoğun şehirde nasıl gezindiğini, kazandıkları parayı ve her 24 saatlik dönemdeki yolculuk sürelerini anlamamıza yardımcı olan bir günün görselleştirilmesini sağladı.
+
+ * [Uber Data Science Workbench](https://eng.uber.com/dsw/) - günlük olarak milyonlarca Uber yolculuğundan toplanan verileri (alım ve bırakma konumları, yolculuk süresi, tercih edilen rotalar vb.) kullanarak fiyatlandırma, güvenlik, dolandırıcılık tespiti ve navigasyon kararları için bir veri analitiği aracı oluşturur.
+
+ * [Sports Analytics](https://towardsdatascience.com/scope-of-analytics-in-sports-world-37ed09c39860) - _öngörücü analitik_ (takım ve oyuncu analizi - [Moneyball](https://datasciencedegree.wisconsin.edu/blog/moneyball-proves-importance-big-data-big-ideas/) düşünün - ve hayran yönetimi) ve _veri görselleştirme_ (takım ve hayran panoları, oyunlar vb.) üzerine odaklanır. Uygulamalar arasında yetenek avı, spor bahisleri ve envanter/mekan yönetimi bulunur.
+
+ * [Bankacılıkta Veri Bilimi](https://data-flair.training/blogs/data-science-in-banking/) - risk modelleme ve dolandırıcılık tespitinden müşteri segmentasyonu, gerçek zamanlı tahmin ve öneri sistemlerine kadar finans sektöründeki veri biliminin değerini vurgular. Öngörücü analitik ayrıca [kredi puanları](https://dzone.com/articles/using-big-data-and-predictive-analytics-for-credit) gibi kritik ölçütleri yönlendirir.
+
+ * [Sağlıkta Veri Bilimi](https://data-flair.training/blogs/data-science-in-healthcare/) - tıbbi görüntüleme (ör. MRI, X-Ray, CT-Scan), genomik (DNA dizilimi), ilaç geliştirme (risk değerlendirmesi, başarı tahmini), öngörücü analitik (hasta bakımı ve tedarik lojistiği), hastalık takibi ve önleme gibi uygulamaları vurgular.
+
+ Görsel Kaynağı: [Data Flair: 6 Amazing Data Science Applications ](https://data-flair.training/blogs/data-science-applications/)
+
+Şekil, veri bilimi tekniklerini uygulamak için diğer alanları ve örnekleri göstermektedir. Diğer uygulamaları keşfetmek ister misiniz? Aşağıdaki [Gözden Geçirme ve Kendi Kendine Çalışma](../../../../6-Data-Science-In-Wild/20-Real-World-Examples) bölümüne göz atın.
+
+## Veri Bilimi + Araştırma
+
+|  ](../../sketchnotes/20-DataScience-Research.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Veri Bilimi & Araştırma - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Gerçek dünya uygulamaları genellikle ölçekli endüstri kullanım durumlarına odaklanırken, _araştırma_ uygulamaları ve projeleri iki açıdan faydalı olabilir:
+
+* _yenilik fırsatları_ - ileri konseptlerin hızlı prototiplenmesini ve gelecek nesil uygulamalar için kullanıcı deneyimlerinin test edilmesini keşfetmek.
+* _uygulama zorlukları_ - veri bilimi teknolojilerinin gerçek dünya bağlamlarında potansiyel zararlarını veya istenmeyen sonuçlarını araştırmak.
+
+Öğrenciler için bu araştırma projeleri, hem öğrenme hem de iş birliği fırsatları sağlayarak konuyu daha iyi anlamalarını ve ilgi alanlarında çalışan ilgili kişiler veya ekiplerle farkındalıklarını ve etkileşimlerini genişletmelerini sağlayabilir. Peki araştırma projeleri nasıl görünür ve nasıl bir etki yaratabilir?
+
+Bir örneğe bakalım - Joy Buolamwini (MIT Media Labs) tarafından yapılan [MIT Gender Shades Study](http://gendershades.org/overview.html) ve Timnit Gebru (o dönemde Microsoft Research'te) ile birlikte yazılan [önemli bir araştırma makalesi](http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf) üzerine odaklanmıştır:
+
+ * **Ne:** Araştırma projesinin amacı, _otomatik yüz analizi algoritmalarında ve veri setlerinde cinsiyet ve cilt tipi temelinde mevcut önyargıları değerlendirmekti_.
+ * **Neden:** Yüz analizi, kolluk kuvvetleri, havaalanı güvenliği, işe alım sistemleri gibi alanlarda kullanılır - yanlış sınıflandırmalar (ör. önyargı nedeniyle) etkilenen bireyler veya gruplar için potansiyel ekonomik ve sosyal zararlar yaratabilir. Önyargıları anlamak (ve ortadan kaldırmak veya hafifletmek) kullanımda adalet için önemlidir.
+ * **Nasıl:** Araştırmacılar, mevcut ölçütlerin ağırlıklı olarak açık tenli denekleri kullandığını fark etti ve cinsiyet ve cilt tipi açısından _daha dengeli_ olan yeni bir veri seti (1000+ görüntü) oluşturdu. Veri seti, üç cinsiyet sınıflandırma ürününün (Microsoft, IBM ve Face++'tan) doğruluğunu değerlendirmek için kullanıldı.
+
+Sonuçlar, genel sınıflandırma doğruluğunun iyi olmasına rağmen, çeşitli alt gruplar arasında hata oranlarında belirgin bir fark olduğunu gösterdi - **yanlış cinsiyetlendirme** kadınlar veya koyu tenli kişiler için daha yüksek olup, önyargıya işaret ediyordu.
+
+**Ana Çıktılar:** Veri biliminin daha _temsil edici veri setlerine_ (dengeli alt gruplar) ve daha _kapsayıcı ekiplere_ (çeşitli geçmişler) ihtiyaç duyduğunu, bu tür önyargıları AI çözümlerinde daha erken tanımak ve ortadan kaldırmak veya hafifletmek için farkındalık yarattı. Bu tür araştırma çabaları, birçok kuruluşun AI ürünleri ve süreçlerinde adaleti artırmak için _sorumlu AI_ ilkelerini ve uygulamalarını tanımlamasında da etkili olmuştur.
+
+**Microsoft'taki ilgili araştırma çabalarını öğrenmek ister misiniz?**
+
+* [Microsoft Research Projects](https://www.microsoft.com/research/research-area/artificial-intelligence/?facet%5Btax%5D%5Bmsr-research-area%5D%5B%5D=13556&facet%5Btax%5D%5Bmsr-content-type%5D%5B%5D=msr-project) adresinde Yapay Zeka üzerine araştırma projelerine göz atın.
+* [Microsoft Research Data Science Summer School](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/) adresindeki öğrenci projelerini keşfedin.
+* [Fairlearn](https://fairlearn.org/) projesine ve [Responsible AI](https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6) girişimlerine göz atın.
+
+## Veri Bilimi + Beşeri Bilimler
+
+|  ](../../sketchnotes/20-DataScience-Humanities.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Veri Bilimi & Dijital Beşeri Bilimler - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+Dijital Beşeri Bilimler [şöyle tanımlanmıştır](https://digitalhumanities.stanford.edu/about-dh-stanford): "hesaplamalı yöntemleri insani sorgulamalarla birleştiren bir uygulama ve yaklaşım koleksiyonu". [Stanford projeleri](https://digitalhumanities.stanford.edu/projects) gibi _"tarihi yeniden başlatma"_ ve _"şiirsel düşünme"_ [Dijital Beşeri Bilimler ve Veri Bilimi](https://digitalhumanities.stanford.edu/digital-humanities-and-data-science) arasındaki bağlantıyı vurgular - ağ analizi, bilgi görselleştirme, mekansal ve metin analizi gibi tekniklerin tarihi ve edebi veri setlerini yeniden gözden geçirmemize ve yeni içgörüler ve perspektifler elde etmemize nasıl yardımcı olabileceğini gösterir.
+
+*Bu alanda bir projeyi keşfetmek ve genişletmek ister misiniz?*
+
+["Emily Dickinson ve Ruh Halinin Ölçüsü"](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671) - [Jen Looper](https://twitter.com/jenlooper) tarafından harika bir örnek - şiirleri yeniden gözden geçirerek anlamlarını ve yazarının katkılarını yeni bağlamlarda değerlendirmek için veri bilimi kullanmayı sorar. Örneğin, _bir şiirin tonu veya duygusunu analiz ederek hangi mevsimde yazıldığını tahmin edebilir miyiz_ - ve bu, ilgili dönemde yazarın ruh hali hakkında bize ne anlatır?
+
+Bu soruyu yanıtlamak için veri bilimi yaşam döngüsünün adımlarını takip ediyoruz:
+ * [`Veri Toplama`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#acquiring-the-dataset) - analiz için ilgili bir veri seti toplamak. Seçenekler arasında bir API kullanmak (ör. [Poetry DB API](https://poetrydb.org/index.html)) veya web sayfalarını kazımak (ör. [Project Gutenberg](https://www.gutenberg.org/files/12242/12242-h/12242-h.htm)) gibi araçlar kullanmak bulunur.
+ * [`Veri Temizleme`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#clean-the-data) - metnin nasıl biçimlendirilebileceğini, temizlenebileceğini ve basitleştirilebileceğini temel araçlar kullanarak açıklar (ör. Visual Studio Code ve Microsoft Excel).
+ * [`Veri Analizi`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#working-with-the-data-in-a-notebook) - veri setini "Notebooks" içine aktararak Python paketleri (ör. pandas, numpy ve matplotlib) kullanarak veriyi düzenlemek ve görselleştirmek.
+ * [`Duygu Analizi`](https://gist.github.com/jlooper/ce4d102efd057137bc000db796bfd671#sentiment-analysis-using-cognitive-services) - bulut hizmetlerini (ör. Text Analytics) düşük kodlu araçlar (ör. [Power Automate](https://flow.microsoft.com/en-us/)) kullanarak otomatik veri işleme iş akışları için nasıl entegre edebileceğimizi açıklar.
+
+Bu iş akışını kullanarak şiirlerin duygularındaki mevsimsel etkileri keşfedebilir ve yazar hakkında kendi perspektiflerimizi oluşturabiliriz. Kendiniz deneyin - ardından veri setine başka sorular sormak veya veriyi yeni şekillerde görselleştirmek için not defterini genişletin!
+
+> Bu sorgulama yollarını takip etmek için [Dijital Beşeri Bilimler araç seti](https://github.com/Digital-Humanities-Toolkit) içindeki bazı araçları kullanabilirsiniz.
+
+## Veri Bilimi + Sürdürülebilirlik
+
+|  ](../../sketchnotes/20-DataScience-Sustainability.png) |
+| :---------------------------------------------------------------------------------------------------------------: |
+| Veri Bilimi & Sürdürülebilirlik - _Sketchnote by [@nitya](https://twitter.com/nitya)_ |
+
+[2030 Sürdürülebilir Kalkınma Gündemi](https://sdgs.un.org/2030agenda) - 2015 yılında tüm Birleşmiş Milletler üyeleri tarafından kabul edilen - **Gezegeni** bozulmadan ve iklim değişikliğinin etkilerinden korumaya odaklanan 17 hedefi tanımlar. [Microsoft Sürdürülebilirlik](https://www.microsoft.com/en-us/sustainability) girişimi, bu hedefleri destekleyerek teknoloji çözümlerinin daha sürdürülebilir gelecekler oluşturmayı nasıl destekleyebileceğini ve [4 hedefe](https://dev.to/azure/a-visual-guide-to-sustainable-software-engineering-53hh) odaklanarak - 2030 yılına kadar karbon negatif, su pozitif, sıfır atık ve biyolojik çeşitlilik sağlama - yollarını araştırır.
+
+Bu zorlukları ölçeklenebilir ve zamanında bir şekilde ele almak, bulut ölçekli düşünmeyi ve büyük ölçekli veriyi gerektirir. [Planetary Computer](https://planetarycomputer.microsoft.com/) girişimi, veri bilimciler ve geliştiricilere bu çabada yardımcı olmak için 4 bileşen sunar:
+
+ * [Veri Kataloğu](https://planetarycomputer.microsoft.com/catalog) - Dünya Sistemleri verileriyle (ücretsiz ve Azure barındırmalı) petabaytlarca veri.
+ * [Planetary API](https://planetarycomputer.microsoft.com/docs/reference/stac/) - kullanıcıların uzay ve zaman boyunca ilgili verileri aramasına yardımcı olur.
+ * [Hub](https://planetarycomputer.microsoft.com/docs/overview/environment/) - bilim insanları için büyük ölçekli coğrafi veri setlerini işlemek için yönetilen bir ortam.
+ * [Uygulamalar](https://planetarycomputer.microsoft.com/applications) - sürdürülebilirlik içgörüleri için kullanım durumlarını ve araçları sergiler.
+**Gezegen Bilgisayar Projesi şu anda önizleme aşamasında (Eylül 2021 itibarıyla)** - veri bilimi kullanarak sürdürülebilirlik çözümlerine katkıda bulunmaya nasıl başlayabileceğinizi öğrenin.
+
+* Keşfe başlamak ve diğer kişilerle bağlantı kurmak için [Erişim talep edin](https://planetarycomputer.microsoft.com/account/request).
+* Desteklenen veri setlerini ve API'leri anlamak için [Dokümantasyonu keşfedin](https://planetarycomputer.microsoft.com/docs/overview/about).
+* [Ekosistem İzleme](https://analytics-lab.org/ecosystemmonitoring/) gibi uygulamaları keşfederek uygulama fikirleri için ilham alın.
+
+Veri görselleştirmeyi, iklim değişikliği ve ormansızlaşma gibi alanlarda ilgili içgörüleri ortaya çıkarmak veya güçlendirmek için nasıl kullanabileceğinizi düşünün. Ya da bu içgörülerin, daha sürdürülebilir bir yaşam için davranış değişikliklerini motive eden yeni kullanıcı deneyimleri oluşturmak için nasıl kullanılabileceğini düşünün.
+
+## Veri Bilimi + Öğrenciler
+
+Endüstri ve araştırmadaki gerçek dünya uygulamalarından bahsettik ve dijital beşeri bilimler ile sürdürülebilirlikte veri bilimi uygulama örneklerini inceledik. Peki, veri bilimi başlangıç seviyesindeki öğrenciler olarak becerilerinizi nasıl geliştirebilir ve uzmanlığınızı nasıl paylaşabilirsiniz?
+
+İşte ilham alabileceğiniz bazı veri bilimi öğrenci projeleri örnekleri:
+
+* GitHub [projeleri](https://github.com/msr-ds3) ile [MSR Veri Bilimi Yaz Okulu](https://www.microsoft.com/en-us/research/academic-program/data-science-summer-school/#!projects), şu konuları keşfediyor:
+ - [Polis Güç Kullanımında Irksal Önyargı](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2019-replicating-an-empirical-analysis-of-racial-differences-in-police-use-of-force/) | [Github](https://github.com/msr-ds3/stop-question-frisk)
+ - [NYC Metro Sisteminin Güvenilirliği](https://www.microsoft.com/en-us/research/video/data-science-summer-school-2018-exploring-the-reliability-of-the-nyc-subway-system/) | [Github](https://github.com/msr-ds3/nyctransit)
+* [Malzeme Kültürünü Dijitalleştirme: Sirkap'taki sosyo-ekonomik dağılımları keşfetmek](https://claremont.maps.arcgis.com/apps/Cascade/index.html?appid=bdf2aef0f45a4674ba41cd373fa23afc) - [Ornella Altunyan](https://twitter.com/ornelladotcom) ve Claremont ekibinden, [ArcGIS StoryMaps](https://storymaps.arcgis.com/) kullanılarak.
+
+## 🚀 Meydan Okuma
+
+Başlangıç seviyesine uygun veri bilimi projelerini öneren makaleler arayın - örneğin [bu 50 konu alanı](https://www.upgrad.com/blog/data-science-project-ideas-topics-beginners/), [bu 21 proje fikri](https://www.intellspot.com/data-science-project-ideas) veya [kaynak kodlu bu 16 proje](https://data-flair.training/blogs/data-science-project-ideas/) gibi. Öğrenme yolculuklarınızı bloglamayı ve içgörülerinizi bizimle paylaşmayı unutmayın.
+
+## Ders Sonrası Test
+
+[Ders sonrası test](https://purple-hill-04aebfb03.1.azurestaticapps.net/quiz/39)
+
+## Gözden Geçirme ve Kendi Kendine Çalışma
+
+Daha fazla kullanım senaryosu keşfetmek ister misiniz? İşte birkaç ilgili makale:
+* [17 Veri Bilimi Uygulaması ve Örnekleri](https://builtin.com/data-science/data-science-applications-examples) - Temmuz 2021
+* [Gerçek Dünyada 11 Nefes Kesici Veri Bilimi Uygulaması](https://myblindbird.com/data-science-applications-real-world/) - Mayıs 2021
+* [Gerçek Dünyada Veri Bilimi](https://towardsdatascience.com/data-science-in-the-real-world/home) - Makale Koleksiyonu
+* Veri Bilimi Şu Alanlarda: [Eğitim](https://data-flair.training/blogs/data-science-in-education/), [Tarım](https://data-flair.training/blogs/data-science-in-agriculture/), [Finans](https://data-flair.training/blogs/data-science-in-finance/), [Filmler](https://data-flair.training/blogs/data-science-at-movies/) ve daha fazlası.
+
+## Ödev
+
+[Bir Gezegen Bilgisayar Veri Setini Keşfedin](assignment.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md b/translations/tr/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
new file mode 100644
index 00000000..3ab8f310
--- /dev/null
+++ b/translations/tr/6-Data-Science-In-Wild/20-Real-World-Examples/assignment.md
@@ -0,0 +1,50 @@
+
+# Bir Gezegen Bilgisayarı Veri Setini Keşfet
+
+## Talimatlar
+
+Bu derste, araştırma, sürdürülebilirlik ve dijital beşeri bilimlerle ilgili örneklere derinlemesine dalış yaparak çeşitli veri bilimi uygulama alanlarını ele aldık. Bu ödevde, bu örneklerden birini daha ayrıntılı bir şekilde inceleyecek ve sürdürülebilirlik verileri hakkında içgörüler elde etmek için veri görselleştirme ve analizle ilgili öğrendiklerinizi uygulayacaksınız.
+
+[Planetary Computer](https://planetarycomputer.microsoft.com/) projesi, bir hesapla erişilebilen veri setleri ve API'ler sunar - ödevin bonus adımını denemek isterseniz erişim için bir hesap talep edin. Site ayrıca bir hesap oluşturmadan kullanabileceğiniz bir [Explorer](https://planetarycomputer.microsoft.com/explore) özelliği sağlar.
+
+`Adımlar:`
+Explorer arayüzü (aşağıdaki ekran görüntüsünde gösterilmiştir), bir veri seti (sunulan seçeneklerden), bir önceden ayarlanmış sorgu (verileri filtrelemek için) ve bir görselleştirme seçeneği (ilgili bir görselleştirme oluşturmak için) seçmenize olanak tanır. Bu ödevdeki göreviniz:
+
+ 1. [Explorer belgelerini](https://planetarycomputer.microsoft.com/docs/overview/explorer/) okuyun - seçenekleri anlayın.
+ 2. Veri seti [Kataloğunu](https://planetarycomputer.microsoft.com/catalog) keşfedin - her birinin amacını öğrenin.
+ 3. Explorer'ı kullanın - ilginizi çeken bir veri seti seçin, ilgili bir sorgu ve görselleştirme seçeneği belirleyin.
+
+
+
+`Göreviniz:`
+Şimdi tarayıcıda oluşturulan görselleştirmeyi inceleyin ve aşağıdaki soruları yanıtlayın:
+ * Veri seti hangi _özelliklere_ sahip?
+ * Görselleştirme hangi _içgörüleri_ veya sonuçları sağlıyor?
+ * Bu içgörülerin projenin sürdürülebilirlik hedeflerine olan _etkileri_ nelerdir?
+ * Görselleştirmenin _sınırlamaları_ nelerdir (yani, hangi içgörüyü elde edemediniz)?
+ * Ham veriyi alabilseydiniz, hangi _alternatif görselleştirmeleri_ oluştururdunuz ve neden?
+
+`Bonus Puanlar:`
+Bir hesap için başvurun - kabul edildiğinde giriş yapın.
+ * Ham veriyi bir Notebook'ta açmak için _Launch Hub_ seçeneğini kullanın.
+ * Veriyi etkileşimli olarak keşfedin ve düşündüğünüz alternatif görselleştirmeleri uygulayın.
+ * Şimdi özel görselleştirmelerinizi analiz edin - daha önce kaçırdığınız içgörüleri elde edebildiniz mi?
+
+## Değerlendirme Ölçütü
+
+Örnek | Yeterli | Geliştirme Gerekiyor
+--- | --- | -- |
+Beş temel sorunun tamamı yanıtlandı. Öğrenci, mevcut ve alternatif görselleştirmelerin sürdürülebilirlik hedefleri veya sonuçları hakkında nasıl içgörüler sağlayabileceğini açıkça belirtti. | Öğrenci en azından ilk 3 soruyu ayrıntılı bir şekilde yanıtladı ve Explorer ile pratik deneyime sahip olduğunu gösterdi. | Öğrenci birden fazla soruyu yanıtlamadı veya yetersiz ayrıntı sağladı - bu da projenin anlamlı bir şekilde ele alınmadığını gösteriyor. |
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlık içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/6-Data-Science-In-Wild/README.md b/translations/tr/6-Data-Science-In-Wild/README.md
new file mode 100644
index 00000000..dd761aea
--- /dev/null
+++ b/translations/tr/6-Data-Science-In-Wild/README.md
@@ -0,0 +1,25 @@
+
+# Vahşi Doğada Veri Bilimi
+
+Veri biliminin endüstrilerdeki gerçek dünya uygulamaları.
+
+### Konular
+
+1. [Gerçek Dünyada Veri Bilimi](20-Real-World-Examples/README.md)
+
+### Katkıda Bulunanlar
+
+❤️ ile yazan [Nitya Narasimhan](https://twitter.com/nitya)
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/CODE_OF_CONDUCT.md b/translations/tr/CODE_OF_CONDUCT.md
new file mode 100644
index 00000000..aea7f02b
--- /dev/null
+++ b/translations/tr/CODE_OF_CONDUCT.md
@@ -0,0 +1,23 @@
+
+# Microsoft Açık Kaynak Davranış Kuralları
+
+Bu proje, [Microsoft Açık Kaynak Davranış Kuralları](https://opensource.microsoft.com/codeofconduct/) benimsemiştir.
+
+Kaynaklar:
+
+- [Microsoft Açık Kaynak Davranış Kuralları](https://opensource.microsoft.com/codeofconduct/)
+- [Microsoft Davranış Kuralları SSS](https://opensource.microsoft.com/codeofconduct/faq/)
+- Sorularınız veya endişeleriniz için [opencode@microsoft.com](mailto:opencode@microsoft.com) ile iletişime geçin
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/CONTRIBUTING.md b/translations/tr/CONTRIBUTING.md
new file mode 100644
index 00000000..995eec36
--- /dev/null
+++ b/translations/tr/CONTRIBUTING.md
@@ -0,0 +1,21 @@
+
+# Katkıda Bulunma
+
+Bu proje, katkıları ve önerileri memnuniyetle karşılar. Çoğu katkı, bir Katkıda Bulunma Lisans Sözleşmesi'ni (CLA) kabul etmenizi gerektirir. Bu sözleşme, katkınızı kullanma hakkını bize verdiğinizi ve bu hakkı gerçekten sağladığınızı beyan eder. Ayrıntılar için https://cla.microsoft.com adresini ziyaret edebilirsiniz.
+
+Bir pull request gönderdiğinizde, bir CLA-bot otomatik olarak bir CLA sağlamanız gerekip gerekmediğini belirleyecek ve PR'ı uygun şekilde işaretleyecektir (örneğin, etiket, yorum). Bot tarafından sağlanan talimatları takip etmeniz yeterlidir. CLA'yı, CLA kullanan tüm depolar için yalnızca bir kez sağlamanız gerekecek.
+
+Bu proje, [Microsoft Açık Kaynak Davranış Kuralları](https://opensource.microsoft.com/codeofconduct/) benimsemiştir. Daha fazla bilgi için [Davranış Kuralları SSS](https://opensource.microsoft.com/codeofconduct/faq/) sayfasını inceleyebilir veya [opencode@microsoft.com](mailto:opencode@microsoft.com) adresine ek sorularınızı veya yorumlarınızı iletebilirsiniz.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/README.md b/translations/tr/README.md
new file mode 100644
index 00000000..427c6daa
--- /dev/null
+++ b/translations/tr/README.md
@@ -0,0 +1,164 @@
+
+# Başlangıç Seviyesi Veri Bilimi - Müfredat
+
+Azure Cloud Advocates ekibi olarak Microsoft'ta, Veri Bilimi hakkında 10 haftalık, 20 derslik bir müfredat sunmaktan mutluluk duyuyoruz. Her ders, öncesi ve sonrası quizler, dersin tamamlanması için yazılı talimatlar, bir çözüm ve bir ödev içerir. Proje tabanlı pedagojimiz, öğrenirken inşa etmeyi sağlar; bu, yeni becerilerin kalıcı olmasını sağlayan kanıtlanmış bir yöntemdir.
+
+**Yazarlarımıza içten teşekkürler:** [Jasmine Greenaway](https://www.twitter.com/paladique), [Dmitry Soshnikov](http://soshnikov.com), [Nitya Narasimhan](https://twitter.com/nitya), [Jalen McGee](https://twitter.com/JalenMcG), [Jen Looper](https://twitter.com/jenlooper), [Maud Levy](https://twitter.com/maudstweets), [Tiffany Souterre](https://twitter.com/TiffanySouterre), [Christopher Harrison](https://www.twitter.com/geektrainer).
+
+**🙏 Özel teşekkürler 🙏 [Microsoft Öğrenci Elçisi](https://studentambassadors.microsoft.com/) yazarlarımıza, gözden geçirenlere ve içerik katkıda bulunanlara,** özellikle Aaryan Arora, [Aditya Garg](https://github.com/AdityaGarg00), [Alondra Sanchez](https://www.linkedin.com/in/alondra-sanchez-molina/), [Ankita Singh](https://www.linkedin.com/in/ankitasingh007), [Anupam Mishra](https://www.linkedin.com/in/anupam--mishra/), [Arpita Das](https://www.linkedin.com/in/arpitadas01/), ChhailBihari Dubey, [Dibri Nsofor](https://www.linkedin.com/in/dibrinsofor), [Dishita Bhasin](https://www.linkedin.com/in/dishita-bhasin-7065281bb), [Majd Safi](https://www.linkedin.com/in/majd-s/), [Max Blum](https://www.linkedin.com/in/max-blum-6036a1186/), [Miguel Correa](https://www.linkedin.com/in/miguelmque/), [Mohamma Iftekher (Iftu) Ebne Jalal](https://twitter.com/iftu119), [Nawrin Tabassum](https://www.linkedin.com/in/nawrin-tabassum), [Raymond Wangsa Putra](https://www.linkedin.com/in/raymond-wp/), [Rohit Yadav](https://www.linkedin.com/in/rty2423), Samridhi Sharma, [Sanya Sinha](https://www.linkedin.com/mwlite/in/sanya-sinha-13aab1200),
+[Sheena Narula](https://www.linkedin.com/in/sheena-narua-n/), [Tauqeer Ahmad](https://www.linkedin.com/in/tauqeerahmad5201/), Yogendrasingh Pawar , [Vidushi Gupta](https://www.linkedin.com/in/vidushi-gupta07/), [Jasleen Sondhi](https://www.linkedin.com/in/jasleen-sondhi/)
+
+||
+|:---:|
+| Başlangıç Seviyesi Veri Bilimi - _[@nitya](https://twitter.com/nitya) tarafından hazırlanan Sketchnote_ |
+
+## Duyuru - Yeni Üretken Yapay Zeka Müfredatı Yayınlandı!
+
+12 derslik bir üretken yapay zeka müfredatı yayınladık. Şunları öğrenebilirsiniz:
+
+- İstek oluşturma ve istek mühendisliği
+- Metin ve görsel uygulama oluşturma
+- Arama uygulamaları
+
+Her zamanki gibi, dersler, tamamlanacak ödevler, bilgi kontrolleri ve zorluklar içeriyor.
+
+İnceleyin:
+
+> https://aka.ms/genai-beginners
+
+# Öğrenci misiniz?
+
+Aşağıdaki kaynaklarla başlayabilirsiniz:
+
+- [Öğrenci Merkezi sayfası](https://docs.microsoft.com/en-gb/learn/student-hub?WT.mc_id=academic-77958-bethanycheum) Bu sayfada başlangıç seviyesinde kaynaklar, öğrenci paketleri ve hatta ücretsiz sertifika kuponu alma yollarını bulabilirsiniz. Bu sayfayı sık kullanılanlara ekleyin ve zaman zaman kontrol edin; içeriği en az ayda bir değiştiriyoruz.
+- [Microsoft Learn Öğrenci Elçileri](https://studentambassadors.microsoft.com?WT.mc_id=academic-77958-bethanycheum) Küresel bir öğrenci elçileri topluluğuna katılın, bu sizin Microsoft'a giriş yolunuz olabilir.
+
+# Başlarken
+
+> **Öğretmenler**: Bu müfredatı nasıl kullanabileceğinize dair [bazı öneriler ekledik](for-teachers.md). Geri bildirimlerinizi [tartışma forumumuzda](https://github.com/microsoft/Data-Science-For-Beginners/discussions) paylaşabilirsiniz!
+
+> **[Öğrenciler](https://aka.ms/student-page)**: Bu müfredatı kendi başınıza kullanmak için, tüm depoyu çatallayın ve egzersizleri kendi başınıza tamamlayın, bir ön ders quizinden başlayarak. Ardından dersi okuyun ve diğer aktiviteleri tamamlayın. Dersleri anlayarak projeler oluşturmaya çalışın, çözüm kodunu kopyalamaktan kaçının; ancak bu kod, her proje odaklı dersin /solutions klasörlerinde mevcuttur. Başka bir fikir, arkadaşlarınızla bir çalışma grubu oluşturmak ve içeriği birlikte incelemek olabilir. Daha fazla çalışma için [Microsoft Learn](https://docs.microsoft.com/en-us/users/jenlooper-2911/collections/qprpajyoy3x0g7?WT.mc_id=academic-77958-bethanycheum) öneriyoruz.
+
+## Ekibi Tanıyın
+
+[](https://youtu.be/8mzavjQSMM4 "Tanıtım videosu")
+
+**Gif hazırlayan** [Mohit Jaisal](https://www.linkedin.com/in/mohitjaisal)
+
+> 🎥 Yukarıdaki görsele tıklayarak proje ve onu oluşturan kişiler hakkında bir video izleyebilirsiniz!
+
+## Pedagoji
+
+Bu müfredatı oluştururken iki pedagojik ilkeyi benimsedik: proje tabanlı olmasını sağlamak ve sık sık quizler içermesi. Bu serinin sonunda, öğrenciler veri biliminin temel ilkelerini, etik kavramları, veri hazırlama, veri ile çalışma yöntemleri, veri görselleştirme, veri analizi, veri biliminin gerçek dünya kullanım durumları ve daha fazlasını öğrenmiş olacaklar.
+
+Ayrıca, bir ders öncesi düşük riskli bir quiz, öğrencinin bir konuyu öğrenmeye yönelik niyetini belirlerken, ders sonrası ikinci bir quiz daha fazla bilgiyi pekiştirir. Bu müfredat esnek ve eğlenceli olacak şekilde tasarlandı ve tamamı veya bir kısmı alınabilir. Projeler küçük başlar ve 10 haftalık döngünün sonunda giderek karmaşıklaşır.
+
+> [Davranış Kurallarımızı](CODE_OF_CONDUCT.md), [Katkı Sağlama](CONTRIBUTING.md), [Çeviri](TRANSLATIONS.md) yönergelerimizi bulun. Yapıcı geri bildirimlerinizi memnuniyetle karşılıyoruz!
+
+## Her ders şunları içerir:
+
+- İsteğe bağlı sketchnote
+- İsteğe bağlı ek video
+- Ders öncesi ısınma quiz
+- Yazılı ders
+- Proje tabanlı dersler için, projeyi nasıl oluşturacağınızı adım adım anlatan rehberler
+- Bilgi kontrolleri
+- Bir zorluk
+- Ek okuma materyalleri
+- Ödev
+- Ders sonrası quiz
+
+> **Quizler hakkında bir not**: Tüm quizler Quiz-App klasöründe yer alır, toplamda üçer soruluk 40 quiz içerir. Derslerden bağlantı verilmiştir, ancak quiz uygulaması yerel olarak çalıştırılabilir veya Azure'a dağıtılabilir; `quiz-app` klasöründeki talimatları takip edin. Quizler kademeli olarak yerelleştirilmektedir.
+
+## Dersler
+
+| tarafından hazırlanan Sketchnote ](./sketchnotes/00-Roadmap.png)|
+|:---:|
+| Başlangıç Seviyesi Veri Bilimi: Yol Haritası - _[@nitya](https://twitter.com/nitya) tarafından hazırlanan Sketchnote_ |
+
+| Ders Numarası | Konu | Ders Grubu | Öğrenme Hedefleri | Bağlantılı Ders | Yazar |
+| :-----------: | :----------------------------------------: | :--------------------------------------------------: | :-----------------------------------------------------------------------------------------------------------------------------------------------------------------------: | :---------------------------------------------------------------------: | :----: |
+| 01 | Veri Bilimini Tanımlama | [Giriş](1-Introduction/README.md) | Veri biliminin temel kavramlarını ve yapay zeka, makine öğrenimi ve büyük veri ile nasıl ilişkili olduğunu öğrenin. | [ders](1-Introduction/01-defining-data-science/README.md) [video](https://youtu.be/beZ7Mb_oz9I) | [Dmitry](http://soshnikov.com) |
+| 02 | Veri Bilimi Etiği | [Giriş](1-Introduction/README.md) | Veri etiği kavramları, zorlukları ve çerçeveleri. | [ders](1-Introduction/02-ethics/README.md) | [Nitya](https://twitter.com/nitya) |
+| 03 | Veriyi Tanımlama | [Giriş](1-Introduction/README.md) | Verinin nasıl sınıflandırıldığı ve yaygın kaynakları. | [ders](1-Introduction/03-defining-data/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 04 | İstatistik ve Olasılığa Giriş | [Giriş](1-Introduction/README.md) | Veriyi anlamak için olasılık ve istatistik matematiksel teknikleri. | [ders](1-Introduction/04-stats-and-probability/README.md) [video](https://youtu.be/Z5Zy85g4Yjw) | [Dmitry](http://soshnikov.com) |
+| 05 | İlişkisel Veri ile Çalışma | [Veri ile Çalışma](2-Working-With-Data/README.md) | İlişkisel veriye giriş ve Structured Query Language (SQL) olarak bilinen dil ile ilişkisel veriyi keşfetme ve analiz etmenin temelleri. | [ders](2-Working-With-Data/05-relational-databases/README.md) | [Christopher](https://www.twitter.com/geektrainer) | | |
+| 06 | NoSQL Veri ile Çalışma | [Veri ile Çalışma](2-Working-With-Data/README.md) | İlişkisel olmayan veriye giriş, çeşitli türleri ve belge veritabanlarını keşfetme ve analiz etmenin temelleri. | [ders](2-Working-With-Data/06-non-relational/README.md) | [Jasmine](https://twitter.com/paladique)|
+| 07 | Python ile Çalışma | [Veri ile Çalışma](2-Working-With-Data/README.md) | Pandas gibi kütüphanelerle veri keşfi için Python kullanmanın temelleri. Python programlama hakkında temel bir anlayış önerilir. | [ders](2-Working-With-Data/07-python/README.md) [video](https://youtu.be/dZjWOGbsN4Y) | [Dmitry](http://soshnikov.com) |
+| 08 | Veri Hazırlama | [Veriyle Çalışmak](2-Working-With-Data/README.md) | Eksik, hatalı veya eksik verilerle başa çıkmak için veri temizleme ve dönüştürme teknikleri üzerine konular. | [ders](2-Working-With-Data/08-data-preparation/README.md) | [Jasmine](https://www.twitter.com/paladique) |
+| 09 | Miktarları Görselleştirme | [Veri Görselleştirme](3-Data-Visualization/README.md) | Matplotlib kullanarak kuş verilerini görselleştirmeyi öğrenin 🦆 | [ders](3-Data-Visualization/09-visualization-quantities/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 10 | Veri Dağılımlarını Görselleştirme | [Veri Görselleştirme](3-Data-Visualization/README.md) | Bir aralıktaki gözlemleri ve eğilimleri görselleştirme. | [ders](3-Data-Visualization/10-visualization-distributions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 11 | Oranları Görselleştirme | [Veri Görselleştirme](3-Data-Visualization/README.md) | Ayrık ve gruplandırılmış yüzdeleri görselleştirme. | [ders](3-Data-Visualization/11-visualization-proportions/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 12 | İlişkileri Görselleştirme | [Veri Görselleştirme](3-Data-Visualization/README.md) | Veri setleri ve değişkenleri arasındaki bağlantıları ve korelasyonları görselleştirme. | [ders](3-Data-Visualization/12-visualization-relationships/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 13 | Anlamlı Görselleştirmeler | [Veri Görselleştirme](3-Data-Visualization/README.md) | Sorun çözme ve içgörüler için görselleştirmelerinizi değerli hale getirme teknikleri ve rehberlik. | [ders](3-Data-Visualization/13-meaningful-visualizations/README.md) | [Jen](https://twitter.com/jenlooper) |
+| 14 | Veri Bilimi Yaşam Döngüsüne Giriş | [Yaşam Döngüsü](4-Data-Science-Lifecycle/README.md) | Veri bilimi yaşam döngüsüne ve veri edinme ve çıkarma adımına giriş. | [ders](4-Data-Science-Lifecycle/14-Introduction/README.md) | [Jasmine](https://twitter.com/paladique) |
+| 15 | Analiz | [Yaşam Döngüsü](4-Data-Science-Lifecycle/README.md) | Veri bilimi yaşam döngüsünün bu aşaması, verileri analiz etme tekniklerine odaklanır. | [ders](4-Data-Science-Lifecycle/15-analyzing/README.md) | [Jasmine](https://twitter.com/paladique) | | |
+| 16 | İletişim | [Yaşam Döngüsü](4-Data-Science-Lifecycle/README.md) | Veri bilimi yaşam döngüsünün bu aşaması, verilerden elde edilen içgörüleri karar vericilerin kolayca anlayabileceği şekilde sunmaya odaklanır. | [ders](4-Data-Science-Lifecycle/16-communication/README.md) | [Jalen](https://twitter.com/JalenMcG) | | |
+| 17 | Bulutta Veri Bilimi | [Bulut Verisi](5-Data-Science-In-Cloud/README.md) | Bu ders serisi, bulutta veri bilimine ve avantajlarına giriş yapar. | [ders](5-Data-Science-In-Cloud/17-Introduction/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) ve [Maud](https://twitter.com/maudstweets) |
+| 18 | Bulutta Veri Bilimi | [Bulut Verisi](5-Data-Science-In-Cloud/README.md) | Düşük Kod araçları kullanarak modelleri eğitme. | [ders](5-Data-Science-In-Cloud/18-Low-Code/README.md) | [Tiffany](https://twitter.com/TiffanySouterre) ve [Maud](https://twitter.com/maudstweets) |
+| 19 | Bulutta Veri Bilimi | [Bulut Verisi](5-Data-Science-In-Cloud/README.md) | Azure Machine Learning Studio ile modelleri dağıtma. | [ders](5-Data-Science-In-Cloud/19-Azure/README.md)| [Tiffany](https://twitter.com/TiffanySouterre) ve [Maud](https://twitter.com/maudstweets) |
+| 20 | Vahşi Doğada Veri Bilimi | [Vahşi Doğada](6-Data-Science-In-Wild/README.md) | Gerçek dünyada veri bilimi odaklı projeler. | [ders](6-Data-Science-In-Wild/20-Real-World-Examples/README.md) | [Nitya](https://twitter.com/nitya) |
+
+## GitHub Codespaces
+
+Bu örneği bir Codespace içinde açmak için şu adımları izleyin:
+1. Code açılır menüsüne tıklayın ve Codespaces ile Aç seçeneğini seçin.
+2. Pencerenin altındaki + Yeni codespace seçeneğini seçin.
+Daha fazla bilgi için [GitHub belgelerine](https://docs.github.com/en/codespaces/developing-in-codespaces/creating-a-codespace-for-a-repository#creating-a-codespace) göz atın.
+
+## VSCode Remote - Containers
+Bu depoyu yerel makineniz ve VSCode kullanarak bir konteyner içinde açmak için şu adımları izleyin:
+
+1. İlk kez bir geliştirme konteyneri kullanıyorsanız, sisteminizin ön gereksinimleri karşıladığından emin olun (örneğin, Docker yüklü olmalı) [başlangıç belgelerinde](https://code.visualstudio.com/docs/devcontainers/containers#_getting-started).
+
+Bu depoyu kullanmak için, ya depoyu izole bir Docker hacminde açabilirsiniz:
+
+**Not**: Arka planda, bu işlem Remote-Containers: **Clone Repository in Container Volume...** komutunu kullanarak kaynak kodu yerel dosya sistemi yerine bir Docker hacmine klonlayacaktır. [Hacimler](https://docs.docker.com/storage/volumes/) konteyner verilerini kalıcı hale getirmek için tercih edilen mekanizmadır.
+
+Ya da yerel olarak klonlanmış veya indirilmiş bir depo sürümünü açabilirsiniz:
+
+- Bu depoyu yerel dosya sisteminize klonlayın.
+- F1 tuşuna basın ve **Remote-Containers: Open Folder in Container...** komutunu seçin.
+- Bu klasörün klonlanmış kopyasını seçin, konteynerin başlamasını bekleyin ve denemeler yapın.
+
+## Çevrimdışı erişim
+
+Bu belgeleri [Docsify](https://docsify.js.org/#/) kullanarak çevrimdışı çalıştırabilirsiniz. Bu depoyu çatallayın, [Docsify'i yükleyin](https://docsify.js.org/#/quickstart) yerel makinenize, ardından bu deponun kök klasöründe `docsify serve` yazın. Web sitesi localhost'ta 3000 portunda sunulacaktır: `localhost:3000`.
+
+> Not, not defterleri Docsify üzerinden görüntülenmeyecektir, bu nedenle bir not defterini çalıştırmanız gerektiğinde, bunu ayrı olarak Python çekirdeği çalıştıran VS Code'da yapın.
+
+## Yardım İstiyoruz!
+
+Müfredatın tamamını veya bir kısmını çevirmek isterseniz, lütfen [Çeviriler](TRANSLATIONS.md) rehberimizi takip edin.
+
+## Diğer Müfredatlar
+
+Ekibimiz başka müfredatlar da üretiyor! Şunlara göz atın:
+
+- [Yeni Başlayanlar için Üretken Yapay Zeka](https://aka.ms/genai-beginners)
+- [Yeni Başlayanlar için Üretken Yapay Zeka .NET](https://github.com/microsoft/Generative-AI-for-beginners-dotnet)
+- [JavaScript ile Üretken Yapay Zeka](https://github.com/microsoft/generative-ai-with-javascript)
+- [Java ile Üretken Yapay Zeka](https://aka.ms/genaijava)
+- [Yeni Başlayanlar için Yapay Zeka](https://aka.ms/ai-beginners)
+- [Yeni Başlayanlar için Veri Bilimi](https://aka.ms/datascience-beginners)
+- [Yeni Başlayanlar için Makine Öğrenimi](https://aka.ms/ml-beginners)
+- [Yeni Başlayanlar için Siber Güvenlik](https://github.com/microsoft/Security-101)
+- [Yeni Başlayanlar için Web Geliştirme](https://aka.ms/webdev-beginners)
+- [Yeni Başlayanlar için IoT](https://aka.ms/iot-beginners)
+- [Yeni Başlayanlar için XR Geliştirme](https://github.com/microsoft/xr-development-for-beginners)
+- [Eşli Programlama için GitHub Copilot'u Ustalaştırma](https://github.com/microsoft/Mastering-GitHub-Copilot-for-Paired-Programming)
+- [C#/.NET Geliştiricileri için GitHub Copilot'u Ustalaştırma](https://github.com/microsoft/mastering-github-copilot-for-dotnet-csharp-developers)
+- [Kendi Copilot Maceranızı Seçin](https://github.com/microsoft/CopilotAdventures)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/SECURITY.md b/translations/tr/SECURITY.md
new file mode 100644
index 00000000..3a83dc3b
--- /dev/null
+++ b/translations/tr/SECURITY.md
@@ -0,0 +1,51 @@
+
+## Güvenlik
+
+Microsoft, yazılım ürünlerimizin ve hizmetlerimizin güvenliğini ciddiye alır. Bu, [Microsoft](https://github.com/Microsoft), [Azure](https://github.com/Azure), [DotNet](https://github.com/dotnet), [AspNet](https://github.com/aspnet), [Xamarin](https://github.com/xamarin) ve [diğer GitHub organizasyonlarımız](https://opensource.microsoft.com/) dahil olmak üzere GitHub organizasyonlarımız aracılığıyla yönetilen tüm kaynak kodu depolarını kapsar.
+
+Eğer Microsoft'a ait herhangi bir depoda [Microsoft'un güvenlik açığı tanımına](https://docs.microsoft.com/en-us/previous-versions/tn-archive/cc751383(v=technet.10)) uyan bir güvenlik açığı bulduğunuza inanıyorsanız, lütfen aşağıda açıklandığı şekilde bize bildirin.
+
+## Güvenlik Sorunlarını Bildirme
+
+**Lütfen güvenlik açıklarını GitHub'daki herkese açık sorunlar üzerinden bildirmeyin.**
+
+Bunun yerine, lütfen Microsoft Güvenlik Yanıt Merkezi'ne (MSRC) [https://msrc.microsoft.com/create-report](https://msrc.microsoft.com/create-report) adresinden bildirin.
+
+Eğer giriş yapmadan göndermeyi tercih ediyorsanız, [secure@microsoft.com](mailto:secure@microsoft.com) adresine e-posta gönderin. Mümkünse, mesajınızı PGP anahtarımızla şifreleyin; bunu [Microsoft Güvenlik Yanıt Merkezi PGP Anahtar Sayfası](https://www.microsoft.com/en-us/msrc/pgp-key-msrc) üzerinden indirebilirsiniz.
+
+24 saat içinde bir yanıt almanız gerekir. Herhangi bir nedenle yanıt almazsanız, orijinal mesajınızın bize ulaştığından emin olmak için lütfen e-posta yoluyla tekrar iletişime geçin. Ek bilgiye [microsoft.com/msrc](https://www.microsoft.com/msrc) adresinden ulaşabilirsiniz.
+
+Lütfen aşağıda listelenen bilgileri (mümkün olduğunca fazla) ekleyin, böylece olası sorunun doğasını ve kapsamını daha iyi anlayabiliriz:
+
+ * Sorunun türü (ör. tampon taşması, SQL enjeksiyonu, çapraz site betikleme, vb.)
+ * Sorunun ortaya çıktığı kaynak dosyalarının tam yolları
+ * Etkilenen kaynak kodunun konumu (etiket/dal/commit veya doğrudan URL)
+ * Sorunun yeniden üretilmesi için gereken özel yapılandırmalar
+ * Sorunu yeniden üretmek için adım adım talimatlar
+ * Kanıt niteliğinde konsept veya istismar kodu (mümkünse)
+ * Sorunun etkisi, bir saldırganın bu sorunu nasıl kullanabileceği dahil
+
+Bu bilgiler, raporunuzu daha hızlı bir şekilde değerlendirmemize yardımcı olacaktır.
+
+Eğer bir hata ödül programı için raporlama yapıyorsanız, daha eksiksiz raporlar daha yüksek ödüllerle sonuçlanabilir. Aktif programlarımız hakkında daha fazla bilgi için [Microsoft Hata Ödül Programı](https://microsoft.com/msrc/bounty) sayfamızı ziyaret edin.
+
+## Tercih Edilen Diller
+
+Tüm iletişimlerin İngilizce olmasını tercih ediyoruz.
+
+## Politika
+
+Microsoft, [Koordine Edilmiş Güvenlik Açığı Bildirimi](https://www.microsoft.com/en-us/msrc/cvd) ilkesini takip eder.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Orijinal belgenin kendi dilindeki hali yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/SUPPORT.md b/translations/tr/SUPPORT.md
new file mode 100644
index 00000000..57f16013
--- /dev/null
+++ b/translations/tr/SUPPORT.md
@@ -0,0 +1,24 @@
+
+# Destek
+## Sorun Bildirme ve Yardım Alma
+
+Bu proje, hataları ve özellik isteklerini takip etmek için GitHub Issues kullanır. Yeni bir sorun bildirmeden önce, yinelenen sorunları önlemek için mevcut sorunları arayın. Yeni sorunlar için, hatanızı veya özellik isteğinizi yeni bir Sorun olarak bildirin.
+
+Bu projeyi kullanma konusunda yardım ve sorularınız için bir sorun oluşturun.
+
+## Microsoft Destek Politikası
+
+Bu depo için destek, yukarıda listelenen kaynaklarla sınırlıdır.
+
+---
+
+**Feragatname**:
+Bu belge, AI çeviri hizmeti [Co-op Translator](https://github.com/Azure/co-op-translator) kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/docs/_sidebar.md b/translations/tr/docs/_sidebar.md
new file mode 100644
index 00000000..baac8e73
--- /dev/null
+++ b/translations/tr/docs/_sidebar.md
@@ -0,0 +1,40 @@
+
+- Giriş
+ - [Veri Bilimini Tanımlama](../1-Introduction/01-defining-data-science/README.md)
+ - [Veri Bilimi Etiği](../1-Introduction/02-ethics/README.md)
+ - [Veriyi Tanımlama](../1-Introduction/03-defining-data/README.md)
+ - [Olasılık ve İstatistik](../1-Introduction/04-stats-and-probability/README.md)
+- Veri ile Çalışmak
+ - [İlişkisel Veritabanları](../2-Working-With-Data/05-relational-databases/README.md)
+ - [İlişkisel Olmayan Veritabanları](../2-Working-With-Data/06-non-relational/README.md)
+ - [Python](../2-Working-With-Data/07-python/README.md)
+ - [Veri Hazırlama](../2-Working-With-Data/08-data-preparation/README.md)
+- Veri Görselleştirme
+ - [Miktarları Görselleştirme](../3-Data-Visualization/09-visualization-quantities/README.md)
+ - [Dağılımları Görselleştirme](../3-Data-Visualization/10-visualization-distributions/README.md)
+ - [Oranları Görselleştirme](../3-Data-Visualization/11-visualization-proportions/README.md)
+ - [İlişkileri Görselleştirme](../3-Data-Visualization/12-visualization-relationships/README.md)
+ - [Anlamlı Görselleştirmeler](../3-Data-Visualization/13-meaningful-visualizations/README.md)
+- Veri Bilimi Yaşam Döngüsü
+ - [Giriş](../4-Data-Science-Lifecycle/14-Introduction/README.md)
+ - [Analiz Etme](../4-Data-Science-Lifecycle/15-analyzing/README.md)
+ - [İletişim](../4-Data-Science-Lifecycle/16-communication/README.md)
+- Bulutta Veri Bilimi
+ - [Giriş](../5-Data-Science-In-Cloud/17-Introduction/README.md)
+ - [Düşük Kod](../5-Data-Science-In-Cloud/18-Low-Code/README.md)
+ - [Azure](../5-Data-Science-In-Cloud/19-Azure/README.md)
+- Doğada Veri Bilimi
+ - [Doğada Veri Bilimi](../6-Data-Science-In-Wild/README.md)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlamalar veya yanlış yorumlamalar için sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/for-teachers.md b/translations/tr/for-teachers.md
new file mode 100644
index 00000000..c436e0bc
--- /dev/null
+++ b/translations/tr/for-teachers.md
@@ -0,0 +1,78 @@
+
+## Eğitimciler İçin
+
+Bu müfredatı sınıfınızda kullanmak ister misiniz? Lütfen çekinmeden kullanın!
+
+Aslında, GitHub Classroom kullanarak GitHub üzerinden de kullanabilirsiniz.
+
+Bunu yapmak için, bu depoyu çatallayın. Her ders için ayrı bir depo oluşturmanız gerekecek, bu yüzden her klasörü ayrı bir depoya ayırmanız gerekecek. Böylece [GitHub Classroom](https://classroom.github.com/classrooms) her dersi ayrı ayrı alabilir.
+
+Bu [tam talimatlar](https://github.blog/2020-03-18-set-up-your-digital-classroom-with-github-classroom/) sınıfınızı nasıl kuracağınız konusunda size fikir verecektir.
+
+## Depoyu Olduğu Gibi Kullanma
+
+Eğer bu depoyu şu anki haliyle, GitHub Classroom kullanmadan kullanmak isterseniz, bu da mümkün. Öğrencilerinizle hangi dersi birlikte çalışacağınızı iletişim kurmanız gerekecek.
+
+Çevrimiçi bir formatta (Zoom, Teams veya diğerleri) sınavlar için gruplar oluşturabilir ve öğrencileri öğrenmeye hazırlanmaları için yönlendirebilirsiniz. Ardından öğrencileri sınavlara davet edebilir ve cevaplarını belirli bir zamanda 'issue' olarak göndermelerini isteyebilirsiniz. Aynı şeyi ödevler için de yapabilirsiniz, eğer öğrencilerin açık bir şekilde iş birliği yapmasını istiyorsanız.
+
+Daha özel bir format tercih ederseniz, öğrencilerinizden müfredatı ders ders kendi GitHub depolarına, özel depolar olarak çatallamalarını isteyebilir ve size erişim verebilirler. Ardından sınavları ve ödevleri özel olarak tamamlayabilir ve bunları sınıf deponuzdaki 'issue'lar aracılığıyla size gönderebilirler.
+
+Çevrimiçi sınıf formatında bunu çalıştırmanın birçok yolu var. Lütfen sizin için en iyi çalışan yöntemi bizimle paylaşın!
+
+## Bu Müfredatta Neler Var:
+
+20 ders, 40 sınav ve 20 ödev. Görsel öğrenenler için derslere eşlik eden çizim notları. Birçok ders hem Python hem de R ile sunuluyor ve VS Code'daki Jupyter defterleri kullanılarak tamamlanabiliyor. Bu teknoloji yığınıyla sınıfınızı nasıl kuracağınızı öğrenmek için: https://code.visualstudio.com/docs/datascience/jupyter-notebooks.
+
+Tüm çizim notları, büyük formatlı bir poster de dahil olmak üzere [bu klasörde](../../sketchnotes) bulunuyor.
+
+Tüm müfredat [PDF olarak](../../pdf/readme.pdf) mevcuttur.
+
+Bu müfredatı bağımsız, çevrimdışı dostu bir web sitesi olarak çalıştırmak için [Docsify](https://docsify.js.org/#/) kullanabilirsiniz. [Docsify'i yükleyin](https://docsify.js.org/#/quickstart) yerel makinenize, ardından bu deponun yerel kopyasının kök klasöründe `docsify serve` yazın. Web sitesi localhost'unuzda 3000 portunda sunulacaktır: `localhost:3000`.
+
+Müfredatın çevrimdışı dostu bir versiyonu bağımsız bir web sayfası olarak açılacaktır: https://localhost:3000
+
+Dersler 6 bölüme ayrılmıştır:
+
+- 1: Giriş
+ - 1: Veri Bilimini Tanımlama
+ - 2: Etik
+ - 3: Veriyi Tanımlama
+ - 4: Olasılık ve İstatistik Genel Bakış
+- 2: Veri ile Çalışma
+ - 5: İlişkisel Veritabanları
+ - 6: İlişkisel Olmayan Veritabanları
+ - 7: Python
+ - 8: Veri Hazırlama
+- 3: Veri Görselleştirme
+ - 9: Miktarların Görselleştirilmesi
+ - 10: Dağılımların Görselleştirilmesi
+ - 11: Oranların Görselleştirilmesi
+ - 12: İlişkilerin Görselleştirilmesi
+ - 13: Anlamlı Görselleştirmeler
+- 4: Veri Bilimi Yaşam Döngüsü
+ - 14: Giriş
+ - 15: Analiz
+ - 16: İletişim
+- 5: Bulutta Veri Bilimi
+ - 17: Giriş
+ - 18: Düşük Kod Seçenekleri
+ - 19: Azure
+- 6: Gerçek Hayatta Veri Bilimi
+ - 20: Genel Bakış
+
+## Lütfen Görüşlerinizi Paylaşın!
+
+Bu müfredatı sizin ve öğrencileriniz için işe yarar hale getirmek istiyoruz. Lütfen tartışma panolarında geri bildirimde bulunun! Öğrencileriniz için tartışma panolarında bir sınıf alanı oluşturmakta özgürsünüz.
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file
diff --git a/translations/tr/quiz-app/README.md b/translations/tr/quiz-app/README.md
new file mode 100644
index 00000000..cdb19613
--- /dev/null
+++ b/translations/tr/quiz-app/README.md
@@ -0,0 +1,139 @@
+
+# Quizler
+
+Bu quizler, https://aka.ms/datascience-beginners adresindeki veri bilimi müfredatının ders öncesi ve sonrası quizleridir.
+
+## Çevirilmiş bir quiz seti ekleme
+
+Bir quiz çevirisi eklemek için `assets/translations` klasörlerinde eşleşen quiz yapıları oluşturun. Orijinal quizler `assets/translations/en` klasöründe bulunmaktadır. Quizler birkaç gruba ayrılmıştır. Numara sıralamasını doğru quiz bölümüyle hizalamayı unutmayın. Bu müfredatta toplamda 40 quiz bulunmaktadır ve numaralandırma 0'dan başlamaktadır.
+
+Çevirileri düzenledikten sonra, `en` klasöründeki kurallara uygun olarak çeviri klasöründeki `index.js` dosyasını düzenleyerek tüm dosyaları içe aktarın.
+
+`assets/translations` klasöründeki `index.js` dosyasını düzenleyerek yeni çevrilmiş dosyaları içe aktarın.
+
+Son olarak, bu uygulamadaki `App.vue` dosyasındaki açılır menüyü düzenleyerek dilinizi ekleyin. Yerelleştirilmiş kısaltmayı dilinizin klasör adıyla eşleştirin.
+
+Eğer varsa, çevrilmiş derslerdeki tüm quiz bağlantılarını düzenleyerek bu yerelleştirmeyi bir sorgu parametresi olarak ekleyin: örneğin `?loc=fr`.
+
+## Proje kurulumu
+
+```
+npm install
+```
+
+### Geliştirme için derler ve hızlı yeniden yükler
+
+```
+npm run serve
+```
+
+### Üretim için derler ve küçültür
+
+```
+npm run build
+```
+
+### Dosyaları kontrol eder ve düzeltir
+
+```
+npm run lint
+```
+
+### Yapılandırmayı özelleştirme
+
+[Configuration Reference](https://cli.vuejs.org/config/) adresine bakın.
+
+Teşekkürler: Bu quiz uygulamasının orijinal versiyonu için teşekkürler: https://github.com/arpan45/simple-quiz-vue
+
+## Azure'a dağıtım
+
+Başlamak için adım adım bir rehber:
+
+1. GitHub Deposu Çatallayın
+Statik web uygulamanızın kodunun GitHub deponuzda olduğundan emin olun. Bu depoyu çatallayın.
+
+2. Azure Statik Web Uygulaması Oluşturun
+- Bir [Azure hesabı](http://azure.microsoft.com) oluşturun.
+- [Azure portalına](https://portal.azure.com) gidin.
+- “Create a resource” seçeneğine tıklayın ve “Static Web App” arayın.
+- “Create” seçeneğine tıklayın.
+
+3. Statik Web Uygulamasını Yapılandırın
+- Temel Bilgiler:
+ - Abonelik: Azure aboneliğinizi seçin.
+ - Kaynak Grubu: Yeni bir kaynak grubu oluşturun veya mevcut birini kullanın.
+ - Ad: Statik web uygulamanız için bir ad sağlayın.
+ - Bölge: Kullanıcılarınıza en yakın bölgeyi seçin.
+
+- #### Dağıtım Detayları:
+ - Kaynak: “GitHub” seçeneğini seçin.
+ - GitHub Hesabı: Azure'un GitHub hesabınıza erişmesine izin verin.
+ - Organizasyon: GitHub organizasyonunuzu seçin.
+ - Depo: Statik web uygulamanızı içeren depoyu seçin.
+ - Dal: Dağıtım yapmak istediğiniz dalı seçin.
+
+- #### Yapı Detayları:
+ - Yapı Ön Ayarları: Uygulamanızın hangi framework ile oluşturulduğunu seçin (örneğin, React, Angular, Vue, vb.).
+ - Uygulama Konumu: Uygulama kodunuzu içeren klasörü belirtin (örneğin, kökteyse /).
+ - API Konumu: Bir API'niz varsa, konumunu belirtin (isteğe bağlı).
+ - Çıktı Konumu: Yapı çıktısının oluşturulduğu klasörü belirtin (örneğin, build veya dist).
+
+4. Gözden Geçir ve Oluştur
+Ayarlarınızı gözden geçirin ve “Create” seçeneğine tıklayın. Azure gerekli kaynakları ayarlayacak ve deponuzda bir GitHub Actions iş akışı oluşturacaktır.
+
+5. GitHub Actions İş Akışı
+Azure, deponuzda otomatik olarak bir GitHub Actions iş akışı dosyası oluşturacaktır (.github/workflows/azure-static-web-apps-.yml). Bu iş akışı, yapı ve dağıtım sürecini yönetecektir.
+
+6. Dağıtımı İzleme
+GitHub deponuzdaki “Actions” sekmesine gidin.
+Bir iş akışının çalıştığını görmelisiniz. Bu iş akışı, statik web uygulamanızı Azure'a oluşturacak ve dağıtacaktır.
+İş akışı tamamlandığında, uygulamanız sağlanan Azure URL'sinde canlı olacaktır.
+
+### Örnek İş Akışı Dosyası
+
+GitHub Actions iş akışı dosyasının nasıl görünebileceğine dair bir örnek:
+name: Azure Static Web Apps CI/CD
+```
+on:
+ push:
+ branches:
+ - main
+ pull_request:
+ types: [opened, synchronize, reopened, closed]
+ branches:
+ - main
+
+jobs:
+ build_and_deploy_job:
+ runs-on: ubuntu-latest
+ name: Build and Deploy Job
+ steps:
+ - uses: actions/checkout@v2
+ - name: Build And Deploy
+ id: builddeploy
+ uses: Azure/static-web-apps-deploy@v1
+ with:
+ azure_static_web_apps_api_token: ${{ secrets.AZURE_STATIC_WEB_APPS_API_TOKEN }}
+ repo_token: ${{ secrets.GITHUB_TOKEN }}
+ action: "upload"
+ app_location: "quiz-app" # App source code path
+ api_location: ""API source code path optional
+ output_location: "dist" #Built app content directory - optional
+```
+
+### Ek Kaynaklar
+- [Azure Statik Web Uygulamaları Belgeleri](https://learn.microsoft.com/azure/static-web-apps/getting-started)
+- [GitHub Actions Belgeleri](https://docs.github.com/actions/use-cases-and-examples/deploying/deploying-to-azure-static-web-app)
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı bir yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel bir insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan herhangi bir yanlış anlama veya yanlış yorumlama durumunda sorumluluk kabul etmiyoruz.
\ No newline at end of file
diff --git a/translations/tr/sketchnotes/README.md b/translations/tr/sketchnotes/README.md
new file mode 100644
index 00000000..c9709199
--- /dev/null
+++ b/translations/tr/sketchnotes/README.md
@@ -0,0 +1,21 @@
+
+Tüm sketchnotelere buradan ulaşabilirsiniz!
+
+## Katkıda Bulunanlar
+
+Nitya Narasimhan, sanatçı
+
+
+
+---
+
+**Feragatname**:
+Bu belge, [Co-op Translator](https://github.com/Azure/co-op-translator) adlı yapay zeka çeviri hizmeti kullanılarak çevrilmiştir. Doğruluk için çaba göstersek de, otomatik çevirilerin hata veya yanlışlıklar içerebileceğini lütfen unutmayın. Belgenin orijinal dili, yetkili kaynak olarak kabul edilmelidir. Kritik bilgiler için profesyonel insan çevirisi önerilir. Bu çevirinin kullanımından kaynaklanan yanlış anlama veya yanlış yorumlamalardan sorumlu değiliz.
\ No newline at end of file