menu

検索結果:23
並べ替え: 関連度順
クエスト

Big Data on AWS

Scientists, developers, and other technologists from many different industries are taking advantage of AWS to perform big data analytics and meet the challenges of the increasing volume, variety, and velocity of digital information. AWS offers a portfolio of cloud computing services to help you manage big data by reducing costs, scaling to meet demand, and increasing the speed of innovation. In this quest, you’ll learn to work with advanced services for Big Data.

English 简体中文
クエスト

Advanced Operations Using Amazon Redshift

In this Quest, you will delve deeper into the uses and capabilities of Amazon Redshift. You will use a remote SQL client to create and configure tables, and gain practice loading large data sets into Redshift. You will explore the effects of schema variations and compression. You will explore visualization of Redshift data, and connect Redshift with Amazon Machine Learning to create a predictive data model.

クエスト

Serverless Web Apps using Amazon DynamoDB

Serverless architectures allow you to build and run applications and services without needing to provision, manage, and scale infrastructure. This quest will show how to design, build, and deploy interactive serverless web applications, using a simple HTML/JavaScript web interface which uses Amazon API Gateway calls to send requests to AWS Lambda backends that query Amazon DynamoDB data.

ハンズオンラボ

Analyze Big Data with Hadoop

In this lab, you will deploy a fully functional Hadoop cluster, ready to analyze log data in just a few minutes. You will start by launching an Amazon EMR cluster and then use a HiveQL script to process sample log data stored in an Amazon S3 bucket. HiveQL is a SQL-like scripting language for data warehousing and analysis. You can then use a similar setup to analyze your own log files.

ハンズオンラボ

Advanced Amazon Redshift: Data Loading (日本語版)

このラボでは、Amazon Redshift を使用して、さまざまな方法でデータのロードを実験し、これらの方法を比較します。ここでは、テーブルの作成、S3 および Amazon Data Pipeline を使用したデータのロード、リモートホストからのロード、およびデータロードエラーのトラブルシューティングの実習を行います。ラボの最後には、クリーンアップ手順を実習します。前提条件: Redshift およびデータベースの基本的な概念を理解している必要があります。qwiklabs.com で入門ラボ、「Introduction to Amazon Redshift」を修了している必要があります。SQL 文および JSON フォーマットの知識が必要です。ただし、ソリューションコードはすべて提供されます。記載されているとおりにラボを利用するために、自動で割り当てられているリージョンを変更しないでください。

English 日本語
ハンズオンラボ

Using Open Data with Amazon S3(日本語版)

このラボでは、データを Amazon S3 にアップロードして、ウェブブラウザから誰でもそのデータにアクセスできるようにする方法をデモンストレーションします。Amazon S3 バケットを作成する方法、ウェブサイトをホストするように Amazon S3 バケットを設定する方法、オブジェクトを Amazon S3 バケットにアップロードする方法、JavaScript を使用してそのオブジェクトをウェブページに表示する方法を学びます。さらに、オープンデータを作成するためのベストプラクティスについても学びます。このラボが終了すると、データへのアクセスを簡単にし、データの基本的な情報を提供する、シンプルなウェブサイトがデプロイされます。

English 日本語 简体中文
ハンズオンラボ

Hybrid Storage and Data Migration with AWS Storage Gateway File Gateway

SPL-223 - Hybrid Storage and Data Migration with AWS Storage Gateway File Gateway

ハンズオンラボ

Exploring Google Ngrams with Amazon EMR(日本語版)

このラボでは、ビッグデータを処理するための Amazon Elastic MapReduce (EMR) クラスターを起動し、Hive と SQL スタイルのクエリを併用してデータを分析する方法について説明します。Amazon EMR を使用して小さな Hadoop クラスターを作成し、Amazon S3 に保存されているデータに対してインタラクティブな Hive クエリを実行できるようにします。また、Hive を使用して有用性の高い方法でデータを標準化します。さらに、有益な結果でテーブルを生成し、それを Amazon S3 に保存して、クラスター上で実行される他のジョブに再利用することにも取り組みます。

English 日本語 简体中文
ハンズオンラボ

Introduction to Amazon Kinesis Firehose

Amazon Kinesis Firehose is the easiest way to load streaming data into AWS. This hand-son lab will demonstrate how Amazon Kinesis Firehose can capture and automatically load streaming data into an Elasticsearch cluster.

ハンズオンラボ

EMR File System Client-side Encryption Using AWS KMS-managed Keys (日本語版)

このラボでは、EMR File System (EMRFS) を使用して Amazon S3 に保存されるデータに対して、AWS KMS で管理されたキーを使用したクライアント側の保管時の暗号化を有効にします。Amazon EMR を使用して、セキュリティ設定を作成し、S3 に書き込まれるオブジェクトに対して、指定した AWS KMS で管理されたキーを用いてクライアント側の暗号化を実行し、暗号化に使用したキーと同じキーを使用してオブジェクトを復号します。これにより、Amazon EMR で A

English 日本語

フィルター

レベル
expand_more
モダリティ
expand_more
home
ホーム
school
カタログ
menu
もっと見る
もっと見る