menu

検索結果:24
並べ替え: 関連度順
クエスト

Big Data on AWS

Scientists, developers, and other technologists from many different industries are taking advantage of AWS to perform big data analytics and meet the challenges of the increasing volume, variety, and velocity of digital information. AWS offers a portfolio of cloud computing services to help you manage big data by reducing costs, scaling to meet demand, and increasing the speed of innovation. In this quest, you’ll learn to work with advanced services for Big Data.

English 简体中文
クエスト

Advanced Operations Using Amazon Redshift

In this Quest, you will delve deeper into the uses and capabilities of Amazon Redshift. You will use a remote SQL client to create and configure tables, and gain practice loading large data sets into Redshift. You will explore the effects of schema variations and compression. You will explore visualization of Redshift data, and connect Redshift with Amazon Machine Learning to create a predictive data model.

クエスト

Serverless Web Apps using Amazon DynamoDB

Serverless architectures allow you to build and run applications and services without needing to provision, manage, and scale infrastructure. This quest will show how to design, build, and deploy interactive serverless web applications, using a simple HTML/JavaScript web interface which uses Amazon API Gateway calls to send requests to AWS Lambda backends that query Amazon DynamoDB data.

ハンズオンラボ

Analyze Big Data with Hadoop

In this lab, you will deploy a fully functional Hadoop cluster, ready to analyze log data in just a few minutes. You will start by launching an Amazon EMR cluster and then use a HiveQL script to process sample log data stored in an Amazon S3 bucket. HiveQL is a SQL-like scripting language for data warehousing and analysis. You can then use a similar setup to analyze your own log files.

ハンズオンラボ

Advanced Amazon Redshift: Data Loading (日本語版)

このラボでは、Amazon Redshift を使用して、さまざまな方法でデータのロードを実験し、これらの方法を比較します。ここでは、テーブルの作成、S3 および Amazon Data Pipeline を使用したデータのロード、リモートホストからのロード、およびデータロードエラーのトラブルシューティングの実習を行います。ラボの最後には、クリーンアップ手順を実習します。前提条件: Redshift およびデータベースの基本的な概念を理解している必要があります。qwiklabs.com で入門ラボ、「Introduction to Amazon Redshift」を修了している必要があります。SQL 文および JSON フォーマットの知識が必要です。ただし、ソリューションコードはすべて提供されます。記載されているとおりにラボを利用するために、自動で割り当てられているリージョンを変更しないでください。

English 日本語
ハンズオンラボ

Using Open Data with Amazon S3(日本語版)

このラボでは、データを Amazon S3 にアップロードして、ウェブブラウザから誰でもそのデータにアクセスできるようにする方法をデモンストレーションします。Amazon S3 バケットを作成する方法、ウェブサイトをホストするように Amazon S3 バケットを設定する方法、オブジェクトを Amazon S3 バケットにアップロードする方法、JavaScript を使用してそのオブジェクトをウェブページに表示する方法を学びます。さらに、オープンデータを作成するためのベストプラクティスについても学びます。このラボが終了すると、データへのアクセスを簡単にし、データの基本的な情報を提供する、シンプルなウェブサイトがデプロイされます。

English 日本語 简体中文
ハンズオンラボ

Exploring Google Ngrams with Amazon EMR(日本語版)

このラボでは、ビッグデータを処理するための Amazon Elastic MapReduce (EMR) クラスターを起動し、Hive と SQL スタイルのクエリを併用してデータを分析する方法について説明します。Amazon EMR を使用して小さな Hadoop クラスターを作成し、Amazon S3 に保存されているデータに対してインタラクティブな Hive クエリを実行できるようにします。また、Hive を使用して有用性の高い方法でデータを標準化します。さらに、有益な結果でテーブルを生成し、それを Amazon S3 に保存して、クラスター上で実行される他のジョブに再利用することにも取り組みます。

English 日本語 简体中文
ハンズオンラボ

Introduction to Amazon Redshift (日本語版)

このラボでは、Amazon Redshift データウェアハウスサービスについての基本を学ぶことができます。Redshift の使用開始で必要となる、クラスターの作成、データのロード、およびデータに対するクエリ実行という基本的なステップを実施します。

English 日本語
ハンズオンラボ

Introduction to Amazon Kinesis Firehose

Amazon Kinesis Firehose is the easiest way to load streaming data into AWS. This hand-son lab will demonstrate how Amazon Kinesis Firehose can capture and automatically load streaming data into an Elasticsearch cluster.

ハンズオンラボ

Working with Amazon Redshift(日本語版)

このラボでは、クラスターの作成、データのロード、クエリの実行、パフォーマンスのモニタリングなど、Amazon RedShift の使い方をデモンストレーションします。注: このラボの一環で、無料の SQL クライアントをダウンロードします。

English 日本語 简体中文

フィルター

レベル
expand_more
モダリティ
expand_more
home
ホーム
school
カタログ
menu
もっと見る
もっと見る