用Python抓取亚马逊云(AWS)的日志(CloudTrail)数据

来源:互联网 发布:vb 中的structure 编辑:程序博客网 时间:2024/06/06 00:01

如今是云的时代,许多公司都把自己的IT架构部署在基础架构云(IaaS)上。著名的IaaS提供商有亚马逊,微软(Azure),IBM等,国内也有诸如阿里云等。这里亚马逊毫无疑问是该市场的领军者。

AWS提供了非常多的服务,领先了竞争对手一大截。并且AWS提供非常丰富的API,其API基于Rest,所以很容易被不同的语言的平台来调用。

在如今的大数据时代,利用数据在做决策是大数据的核心价值,AWS提供了许多服务来获取其运行数据cloudtrail和cloudwatch是经常被用到的两个。CloudTrail是对AWS的所有API调用的日志,CloudWatch是监控AWS服务的性能数据。(新出的Config服务可用于监控AWS的资源变化)

今天我们来看看如何使用Python(Boto AWS的开源Python SDK)来自动配置ClouTrail的服务并获取日志内容。

我们先来看看CloudTrail的概念和相关的配置。

  • S3 Bucket

    在打开CloudTrail的服务时,需要指定一个相关的S3的Bucket,S3是亚马逊提供的存储服务,你可以把它当作一个基于云的文件系统。CloudTrail的API调用日志,会以压缩文件的形式,存储在你指定的Bucket里。

  • SNS

    SNS是亚马逊提供的通知服务,该服务使用的是订阅/发布(Subsrcibe/Publish)的模式。在创建CloudTrail的时候,可以关联一个SNS的Topic(可选),这样做的好处是当有API调用时,可以第一时间得到通知。可以使用不同的客户端来订阅SNS的通知,例如Email,Mobile的Notification Service,SQS等

  • SQS

    SQS是亚马逊提供的队列服务,在本文中,我们使用SQS订阅SNS的的内容,这样我们的Python程序就可以从SQS的队列中获取相应的通知。


配置CloudTrail

首先我们需要创建SNS,并指定相应的策略。代码如下:

import boto.snsimport jsonkey_id='yourawskeyid'secret_key='yourawssecretkey'region_name="eu-central-1"trail_topic_name="topicABC"sns_policy_sid="snspolicy0001"sns_conn = boto.sns.connect_to_region(region_name,                                         aws_access_key_id=key_id,                                         aws_secret_access_key=secret_key)sns_topic = sns_conn.create_topic(trail_topic_name)# Get ARN of SNS topicsns_arn = sns_topic['CreateTopicResponse']['CreateTopicResult']['TopicArn']# Add related policyattrs = sns_conn.get_topic_attributes(sns_arn)policy = attrs['GetTopicAttributesResponse']['GetTopicAttributesResult']['Attributes']['Policy']policy_obj = json.loads(policy)statements = policy_obj['Statement']default_statement = statements[0]new_statement = default_statement.copy()new_statement["Sid"] = sns_policy_sidnew_statement["Action"] = "SNS:Publish"new_statement["Principal"] = {        "AWS": [          "arn:aws:iam::903692715234:root",          "arn:aws:iam::035351147821:root",           "arn:aws:iam::859597730677:root",          "arn:aws:iam::814480443879:root",          "arn:aws:iam::216624486486:root",          "arn:aws:iam::086441151436:root",          "arn:aws:iam::388731089494:root",          "arn:aws:iam::284668455005:root",          "arn:aws:iam::113285607260:root"        ]      }new_statement.pop("Condition", None)statements.append(new_statement)new_policy = json.dumps(policy_obj)sns_conn.set_topic_attributes(sns_arn,"Policy",new_policy)


CloudTrail是和区域(Region)相关的,不同的Region有不同的CloudTrail服务,所以,在创建对应的SNS时,需要保证使用同一个Region。

这里要注意的是我们创建了新的policy来使得CloudTrail拥有向我们创建的SNS发布消息(Action=“SNS:Publish”)的权限。我们的做法是从缺省的策略中拷贝了一份,修改了相应的Action和Sid(随便取一个不重复的名字),Principal部分是一个缺省的account的列表,这里是硬编码,AWS有可能会修改该列表的值,但在当前环境下,该值是固定的。最后移除Condition的值。把新创建的Policy片段添加到原来的Policy中就好了。

然后我们需要创建一个SQS的队列,并订阅我们创建的SNS的Topic。这一步相对比较简单。

import boto.sqssqs_queue_name="sqs_queue"sqs_conn = boto.sqs.connect_to_region(region_name,                                         aws_access_key_id=key_id,                                         aws_secret_access_key=secret_key)sqs_queue = sqs_conn.create_queue(sqs_queue_name)sns_conn.subscribe_sqs_queue(sns_arn, sqs_queue)


然后,我们需要创建一个S3的Bucket用来存储CloudTrail产生的日志文件。同样的,需要指定响应的策略以保证CloudTrail能够有权限写入对应的日志文件。

import botobucket_name="bucket000"policy_sid="testpolicy000"s3_conn = boto.connect_s3(aws_access_key_id=key_id,aws_secret_access_key=secret_key)bucket = s3_conn.create_bucket(bucket_name)bucket_policy = '''{"Version": "2012-10-17","Statement": [{"Sid": "%Sid%GetPolicy","Effect": "Allow","Principal": {"AWS": ["arn:aws:iam::903692715234:root","arn:aws:iam::035351147821:root","arn:aws:iam::859597730677:root","arn:aws:iam::814480443879:root","arn:aws:iam::216624486486:root","arn:aws:iam::086441151436:root","arn:aws:iam::388731089494:root","arn:aws:iam::284668455005:root","arn:aws:iam::113285607260:root"]},"Action": "s3:GetBucketAcl","Resource": "arn:aws:s3:::%bucket_name%"},{"Sid": "%Sid%PutPolicy","Effect": "Allow","Principal": {"AWS": ["arn:aws:iam::903692715234:root","arn:aws:iam::035351147821:root","arn:aws:iam::859597730677:root","arn:aws:iam::814480443879:root","arn:aws:iam::216624486486:root","arn:aws:iam::086441151436:root","arn:aws:iam::388731089494:root","arn:aws:iam::284668455005:root","arn:aws:iam::113285607260:root"]},"Action": "s3:PutObject","Resource": "arn:aws:s3:::%bucket_name%/*","Condition": {"StringEquals": {"s3:x-amz-acl": "bucket-owner-full-control"}}}]}'''bucket_policy = bucket_policy.replace("%bucket_name%",bucket_name)bucket_policy = bucket_policy.replace("%Sid%",policy_sid)bucket.set_policy(bucket_policy)


这里我们使用一个缺省的Policy文件,替换掉响应的字段就好了。

最后,我们创建CloudTrail的服务:

import boto.cloudtrailtrail_name="Trailabc"log_prefix="log"cloudtrail_conn=boto.cloudtrail.connect_to_region(region_name,                                         aws_access_key_id=key_id,                                         aws_secret_access_key=secret_key)##cloudtrail_conn.describe_trails()cloudtrail_conn.create_trail(trail_name,bucket_name, s3_key_prefix=log_prefix,sns_topic_name=trail_topic_name)cloudtrail_conn.start_logging(trail_name)


好了,现在CloudTrail已经配置好了,并且关联的SNS也被我们创建的SQS队列订阅,下面我们就可以抓取日志了

获取日志数据

每当有一个API调用,CloudTrail都会把响应的日志文件写入到S3我们创建的Bucket中,同时在我们在创建的SNS的topic中发布一条消息,因为我们使用SQS的队列订阅了该消息,所以我们可以通过读取SQS消息的方式来获得日志数据。

首先连接到SQS的队列,并从中读取消息

import boto.sqssqs_queue_name="sqs_queue"sqs_conn = boto.sqs.connect_to_region(region_name,                                         aws_access_key_id=key_id,                                         aws_secret_access_key=secret_key)                                         sqs_queue = sqs_conn.get_queue(sqs_queue_name)notifications = sqs_queue.get_messages()


然后我们从消息中获得响应的日志文件在S3中的地址,并利用该地址从S3中获得对应的日志文件

for notification in notifications:    envelope = json.loads(notification.get_body())    message = json.loads(envelope['Message'])    bucket_name = message['s3Bucket']    s3_bucket = s3_conn.get_bucket(bucket_name)    for key in message['s3ObjectKey']:        s3_file = s3_bucket.get_key(key)        with io.BytesIO(s3_file.read()) as bfile:            with gzip.GzipFile(fileobj=bfile) as gz:                logjson = json.loads(gz.read())


logjson就是对应的日记内容的JSON格式。这里有一个例子

{    "Records": [{        "eventVersion": "1.0",        "userIdentity": {            "type": "IAMUser",            "principalId": "EX_PRINCIPAL_ID",            "arn": "arn:aws:iam::123456789012:user/Alice",            "accessKeyId": "EXAMPLE_KEY_ID",            "accountId": "123456789012",            "userName": "Alice"        },        "eventTime": "2014-03-06T21:22:54Z",        "eventSource": "ec2.amazonaws.com",        "eventName": "StartInstances",        "awsRegion": "us-west-2",        "sourceIPAddress": "205.251.233.176",        "userAgent": "ec2-api-tools 1.6.12.2",        "requestParameters": {            "instancesSet": {                 "items": [{                      "instanceId": "i-ebeaf9e2"                }]            }        },        "responseElements": {            "instancesSet": {                "items": [{                      "instanceId": "i-ebeaf9e2",                      "currentState": {                          "code": 0,                          "name": "pending"                      },                      "previousState": {                          "code": 80,                          "name": "stopped"                      }                    }]            }        }    },    ... additional entries ...]}


你可以使用以上代码来监控所有的cloudtrail的日志,拿到的JSON格式的日志可以放在你的数据库(Mongo不错)中,然后利用你的BI工具做分析。

注意你也可以不创建SNS和SQS,直接扫描bucket的内容,这样做的好处是配置更简单,缺点是实时性比较差,扫面Bucket需要额外的计算,并且需要在本地保存文件扫描的状态,code会更加复杂。

利用CloudTrail的日志,你可以做很多事情,比如看看有没有非法的登陆,各个服务的使用频率,总之,当你有了足够多的数据,你就可以从中发现足够的价值。


阅读全文
0 0
原创粉丝点击