WEBVTT

00:00:09.680 --> 00:00:10.780
[MUSIQUE].

00:00:10.780 --> 00:00:12.750
Salut. Je suis Vicki Harp avec
l'équipe produit SQL Server.

00:00:12.750 --> 00:00:15.870
Je suis ici aujourd'hui pour vous montrer
Notebooks et Azure Data Studio.

00:00:15.870 --> 00:00:18.825
Ainsi, les carnets de notes sont un concept

00:00:18.825 --> 00:00:20.660
La science des données qui a été

00:00:20.660 --> 00:00:22.940
l'habitude de faire beaucoup de
visualisation des données,

00:00:22.940 --> 00:00:25.010
l'exploration et le travail des données,

00:00:25.010 --> 00:00:26.855
principalement dans la langue Python.

00:00:26.855 --> 00:00:28.760
Quand les gens parlent
à propos de Notebooks,

00:00:28.760 --> 00:00:30.485
beaucoup de fois nous parlons
à propos de Jupiter Notebooks.

00:00:30.485 --> 00:00:32.660
Ainsi, la mise en œuvre de Notebooks

00:00:32.660 --> 00:00:34.730
que nous avons dans Azure Data Studio est

00:00:34.730 --> 00:00:37.070
un carnet jupiter avec un
personnalisé front-end qui est

00:00:37.070 --> 00:00:40.430
mieux adaptés pour s'adapter à la
Expérience Azure Data Studio.

00:00:40.430 --> 00:00:45.450
Donc d'abord, je vais montrer
vous un simple carnet Python.

00:00:45.450 --> 00:00:46.760
Il s'agit d'un carnet qui a

00:00:46.760 --> 00:00:49.250
Python et
vous pouvez voir que nous avons

00:00:49.250 --> 00:00:51.620
une section ici qui est

00:00:51.620 --> 00:00:54.395
un texte lisible par l'homme et un
section ici qui a du code.

00:00:54.395 --> 00:00:56.149
Donc, si je frappe courir sur ce point,

00:00:56.149 --> 00:00:58.010
ce code particulier appelle à

00:00:58.010 --> 00:01:00.755
l'Internet et tire vers le bas un
photographie aléatoire d'un chien.

00:01:00.755 --> 00:01:03.710
Pour vous faire part de la
Expérience portable,

00:01:03.710 --> 00:01:05.390
nous avons un cueilleur ici,

00:01:05.390 --> 00:01:06.770
nous pouvons choisir la langue.

00:01:06.770 --> 00:01:08.630
Donc, dans ce cas, je suis
en cours d'exécution Python 3,

00:01:08.630 --> 00:01:10.475
et je suis en cours d'exécution
sur ma machine locale.

00:01:10.475 --> 00:01:13.460
Je pourrais plutôt passer à
la langue SQL et puis

00:01:13.460 --> 00:01:16.430
choisir lequel du serveur MySQL
machines que je veux attacher à.

00:01:16.430 --> 00:01:18.605
J'ai des serveurs MySQL répertoriés ici.

00:01:18.605 --> 00:01:21.830
Donc, pour aller un peu plus loin,

00:01:21.830 --> 00:01:24.230
Je vais vous montrer un exemple
de la façon dont vous pourriez utiliser cela.

00:01:24.230 --> 00:01:28.025
Donc ici, j'ai un serveur SQL
2019 Big Data Cluster qui

00:01:28.025 --> 00:01:32.555
est SQL Server en cours d'exécution à Kubernetes
avec SQL et Spark.

00:01:32.555 --> 00:01:34.490
Donc, ici, dans ma section HDFS,

00:01:34.490 --> 00:01:38.040
J'ai ce répertoire.
plein de fichiers CSV.

00:01:38.040 --> 00:01:40.890
Si je regarde ça, prévisualise-le,

00:01:40.890 --> 00:01:42.260
vous pouvez voir que c'est beaucoup de

00:01:42.260 --> 00:01:44.780
informations sur le chien
informations sur la licence.

00:01:44.780 --> 00:01:46.970
Donc, c'est en fait le dépôt de données de

00:01:46.970 --> 00:01:48.320
le comté d'Allegheny en Pennsylvanie

00:01:48.320 --> 00:01:51.230
permis de chien pour le
durent plusieurs années.

00:01:51.230 --> 00:01:55.775
Donc, en utilisant le Spark
langue et la connexion

00:01:55.775 --> 00:02:00.440
à Python en utilisant Spark sur le
SQL Server Big Data Cluster.

00:02:00.440 --> 00:02:02.045
Je suis capable de courir,

00:02:02.045 --> 00:02:05.780
code pour lire ces fichiers
directement hors de CSV.

00:02:05.780 --> 00:02:07.760
Alors je peux faire quelques analyses.

00:02:07.760 --> 00:02:09.890
Donc, dans ce cas, je vais
obtenir le compte des lignes.

00:02:09.890 --> 00:02:15.645
Je vais énumérer les distincts
liste des noms,

00:02:15.645 --> 00:02:17.215
nous avons donc 25 000 noms.

00:02:17.215 --> 00:02:20.825
Alors je vais tirer un
nom aléatoire de ce chapeau.

00:02:20.825 --> 00:02:22.550
Donc on a un nom ici.

00:02:22.550 --> 00:02:25.850
Maintenant, si j'utilisais un Spark,

00:02:25.850 --> 00:02:29.120
si j'étais très habitué à utiliser
Python, ce serait génial.

00:02:29.120 --> 00:02:30.770
Mais si je suis plus une personne SQL,

00:02:30.770 --> 00:02:33.320
alors peut-être que je veux me connecter
à ce même ensemble de données,

00:02:33.320 --> 00:02:36.040
Je vais exécuter cluster
en utilisant la langue SQL.

00:02:36.040 --> 00:02:41.420
Ici, j'ai créé externe
table sur ce format de fichier.

00:02:41.420 --> 00:02:43.870
C'est quelque chose que vous
peut faire à l'aide d'un assistant.

00:02:43.870 --> 00:02:45.250
Je vais y aller,

00:02:45.250 --> 00:02:46.930
créer une table externe à partir de fichiers CSV.

00:02:46.930 --> 00:02:50.315
Ensuite, cela créerait cette
table externe que j'utilise.

00:02:50.315 --> 00:02:52.415
Mais dans ce cas, j'ai
l'a fait en utilisant du code.

00:02:52.415 --> 00:02:56.500
Si je frappe les cellules de course,

00:02:56.500 --> 00:02:59.765
vous pouvez voir que j'utilise aussi SQL

00:02:59.765 --> 00:03:03.625
d'accéder aux mêmes données que
Je viens d'accéder à Spark.

00:03:03.625 --> 00:03:07.410
Maintenant, ces fichiers sont
enregistré dans les fichiers IPYNB,

00:03:07.410 --> 00:03:10.970
que je peux ensuite partager avec mon
collègues et je peux courir à nouveau.

00:03:10.970 --> 00:03:14.465
Donc, dans le cas où je
voulait exécuter ce aujourd'hui,

00:03:14.465 --> 00:03:15.995
l'envoyer à mon col lègue,

00:03:15.995 --> 00:03:18.950
ils pourraient l'ouvrir
sur leur instant et

00:03:18.950 --> 00:03:20.480
l'attacher à leur propre cluster ou

00:03:20.480 --> 00:03:22.535
à mon même cluster et l'exécuter à nouveau.

00:03:22.535 --> 00:03:24.800
Nous utilisons également des carnets de notes
d'autres façons.

00:03:24.800 --> 00:03:27.485
Ici, nous avons quelque chose
appelé livres Jupiter.

00:03:27.485 --> 00:03:30.710
Il s'agit d'une liste de cahiers essentiellement

00:03:30.710 --> 00:03:34.130
qui avait été compilé ensemble
dans un format de page de chapitre.

00:03:34.130 --> 00:03:37.775
Donc, ici, nous avons un SQL
Cours de services Server ML,

00:03:37.775 --> 00:03:40.985
qui est montré par notebooks.

00:03:40.985 --> 00:03:43.070
Donc, nous avons tous les
documentation présente.

00:03:43.070 --> 00:03:46.445
On a les échantillons de code.
ici et puis vous pouvez,

00:03:46.445 --> 00:03:47.780
à la fin de chaque chapitre,

00:03:47.780 --> 00:03:49.730
soit frappé le prochain
bouton pour aller à la prochaine

00:03:49.730 --> 00:03:52.400
un ou utiliser ce chapitre
navigateur pour le choisir.

00:03:52.400 --> 00:03:54.965
Nous avons aussi le
carnet de supportabilité

00:03:54.965 --> 00:03:57.255
pour SQL Server 2019
Clusters Big Data.

00:03:57.255 --> 00:03:59.210
Si j'ai soulevé le
pilote de commande et de choisir

00:03:59.210 --> 00:04:01.160
ce guide Jupiter books 2019,

00:04:01.160 --> 00:04:03.035
c'est ce que j'utilise pour ouvrir ça.

00:04:03.035 --> 00:04:05.960
Ici, nous avons tous les
informations que vous pourriez

00:04:05.960 --> 00:04:08.885
besoin afin de soutenir
votre nouveau cluster Big Data,

00:04:08.885 --> 00:04:11.585
beaucoup des Commandements Kubernetes,
l'information de cluster.

00:04:11.585 --> 00:04:13.565
C'est quelque chose que vous pouvez exécuter,

00:04:13.565 --> 00:04:14.735
vous pouvez envoyer à quelqu'un d'autre,

00:04:14.735 --> 00:04:17.065
et vous pouvez économiser et
faire ce que vous voulez avec.

00:04:17.065 --> 00:04:21.140
Nous sommes donc très enthousiastes à l'idée
Carnets de notes dans Azure Data Studio.

00:04:21.140 --> 00:04:23.210
Nous pensons vraiment que cette
est quelque chose qui sera

00:04:23.210 --> 00:04:26.210
très utile à notre communauté.

00:04:26.210 --> 00:04:28.040
Nous sommes vraiment intéressés
en découvrant comment

00:04:28.040 --> 00:04:29.765
vous l'utilisez et
ce que vous voulez de nous.

00:04:29.765 --> 00:04:32.800
Donc, si vous êtes intéressé par
en apprendre davantage, allez à GitHub,

00:04:32.800 --> 00:04:34.610
recherchez Azure Data Studio et vous

00:04:34.610 --> 00:04:37.120
peut ouvrir la fonction
demander des bogues inter.

00:04:37.120 --> 00:04:39.470
C'est aussi là que vous
peut télécharger à la fois le

00:04:39.470 --> 00:04:51.991
stable et l'ajout d'initiés.
Merci beaucoup pour votre temps.

00:04:51.991 --> 00:04:57.040
[MUSIQUE]

