logo

  • home
  • head
  • itnews
  • product
  • mobile
  • game
  • benchmark
  • analysis
  • blog

액션, 모험, SF / 미국 / 2020 .04 개봉 감독 : 케이트 쇼트랜드 출연 : 스칼렛 요한슨(나타샤 로마노프 / ...
드라마, 뮤지컬 / 미국 / 118분 / 2020 .03.12 개봉 / [국내] 12세 관람가 감독 : 루퍼트 굴드 출연 : 르...

2019년 12월 2일~6일(현지시간) 미국 라스베이거스에서 "AWS re:Invent 2019" 행사가 진행됐다. 이 행사에서 AWS가 어필한 주요 내용을 살펴본다.


S1.png


머신러닝=기계학습(ML:Machine Learning)영역에서 새로운 서비스로서 Web 베이스의 기계학습용 IDE(통합 개발 환경)로 Amazon SageMaker Studio가 발표됐고, SageMaker Studio와 여기에 통합되어 있는 수 많은 새로운 기능과 새로운 서비스가 소개됐다.

 

S2.png


SageMaker는 2017년 re:Invent에서 발표된 기계학습 플랫폼으로 데이터 전문가 뿐만 아니라 일반적인 개발자도 기계학습을 취급할 수 있도록 해야 한다는 콘셉으로 SageMaker의 제공을 시작했다고 설명했다. 이후 AWS Marketplace와의 통합이나 모델 컴파일러 Amazon SageMaker Neo 추가 등 기능 강화를 진행해왔다.

 

"수 많은 고객들로부터 SageMaker로 인해 기계학습이 매우 쉬워졌고, 모든 스텝이 쉬워졌다고 평가받고 있으나 그와 동시에 각 스텝 간에 있는 작업, 처리가 잘 되고 있는지 아닌지를 이해하는 것은 아직 힘들다는 목소리가 들렸다. 그래서 소프트웨어 개발과 마찬가지로 엔드 투 엔드 통합 개발환경(=IDE)이 필요하다고 생각했다"

 

S3.png


SageMaker Studio는 프로젝트 폴더를 작성하고 코드, Notebook, 데이터 세트, 세팅 등 기계학습 관련 자원을 한곳에서 통합 관리할 수 있다. 프로젝트 폴더 내 검색 뿐만 아니라 개발자간 공유하여 온라인 콜라보레이션도 가능하다. 빌드, 트레이닝, 튜닝, 디플로이도 같은 인터페이스에서 실행할 수 있으며 SageMaker Studio에 편입되어 있는 새로운 기능/새로운 서비스군도 발표되고 있다.

 

SageMaker Notebooks : Jupyter Notebook의 매니지먼트 서비스. AWS의 컴퓨터와 연동되어 있으며 SageMaker의 Notebook instance를 사용자 스스로 부팅하지 않고 몇 번의 클릭으로 새로운 Notebook을 작성할 수 있다. 더 필요한 처리 자원에 따라 작업의 중단 없이 인스턴스를 자동 스케일

SageMaker Experiments : 트레이닝 데이터나 알고리즘, 파라미터, 플랫폼 구성 등을 변화시키면서 반복적으로 생성한 기계학습 모델의 전 버전에 대해 그 변수(설정)와 결과를 자동적으로 캡쳐하고, 어떤 것이 뛰어났는지를 비주얼하게 비교 검증 가능 

SageMaker Debugger : 기계학습 모델의 트레이닝 코드를 위한 디버거 모델 내부의 Status를 출력함으로써 대량의 파라미터 중 어떤 것이 어느 정도 결과에 영향을 주고 있는지를 가시화, 모델의 최적화(예측정도 향상)를 지원한다. Tensor Flow, PyTorch, MXNet 등 주요 프레임워크용 SDK 제공 

SageMaker Model Monitor : SageMaker Studio로 빌드하여, 실전 환경에 전개하고 있는 모델의 경년적, 외적인 환경 변화에 의한 예측 정확도 저하(콘셉 드리프트)를 감시한다. 정밀도 저하의 경보 뿐만 아니라 그 원인 특정에 도움이 되는 상세한 정보 제공



(예제)

Then, I upload it in Amazon Simple Storage Service (S3) without any preprocessing whatsoever.

Python
sess.upload_data(path="automl-train.csv", key_prefix=prefix + "/input")

's3://sagemaker-us-west-2-123456789012/sagemaker/DEMO-automl-dm/input/automl-train.csv'

Now, let’s configure the AutoML job:

  • Set the location of the data set,
  • Select the target attribute that I want the model to predict: in this case, it’s the ‘y’ column showing if a customer accepted the offer or not,
  • Set the location of training artifacts.
Python
input_data_config = [{
      'DataSource': {
        'S3DataSource': {
          'S3DataType': 'S3Prefix',
          'S3Uri': 's3://{}/{}/input'.format(bucket,prefix)
        }
      },
      'TargetAttributeName': 'y'
    }
  ]

output_data_config = {
    'S3OutputPath': 's3://{}/{}/output'.format(bucket,prefix)
  }

That’s it! Of course, SageMaker Autopilot has a number of options that will come in handy as you learn more about your data and your models, e.g.:

  • Set the type of problem you want to train on: linear regression, binary classification, or multi-class classification. If you’re not sure, SageMaker Autopilot will figure it out automatically by analyzing the values of the target attribute.
  • Use a specific metric for model evaluation.
  • Define completion criteria: maximum running time, etc.

One thing I don’t have to do is size the training cluster, as SageMaker Autopilot uses a heuristic based on data size and algorithm. Pretty cool!

With configuration out of the way, I can fire up the job with the CreateAutoMl API.

Python
auto_ml_job_name = 'automl-dm-' + timestamp_suffix
print('AutoMLJobName: ' + auto_ml_job_name)

import boto3
sm = boto3.client('sagemaker')
sm.create_auto_ml_job(AutoMLJobName=auto_ml_job_name,
                      InputDataConfig=input_data_config,
                      OutputDataConfig=output_data_config,
                      RoleArn=role)

AutoMLJobName: automl-dm-28-10-17-49

A job runs in four steps (you can use the DescribeAutoMlJob API to view them).

  1. Splitting the data set into train and validation sets,
  2. Analyzing data, in order to recommend pipelines that should be tried out on the data set,
  3. Feature engineering, where transformations are applied to the data set and to individual features,
  4.  Pipeline selection and hyperparameter tuning, where the top performing pipeline is selected along with the optimal hyperparameters for the training algorithm.

Once the maximum number of candidates – or one of the stopping conditions – has been reached, the job is complete. I can get detailed information on all candidates using the ListCandidatesForAutoMlJob API , and also view them in the AWS console.

Python
candidates = sm.list_candidates_for_auto_ml_job(AutoMLJobName=auto_ml_job_name, SortBy='FinalObjectiveMetricValue')['Candidates']
index = 1
for candidate in candidates:
  print (str(index) + "  " + candidate['CandidateName'] + "  " + str(candidate['FinalAutoMLJobObjectiveMetric']['Value']))
  index += 1

1 automl-dm-28-tuning-job-1-fabb8-001-f3b6dead 0.9186699986457825
2 automl-dm-28-tuning-job-1-fabb8-004-03a1ff8a 0.918304979801178
3 automl-dm-28-tuning-job-1-fabb8-003-c443509a 0.9181839823722839
4 automl-dm-28-tuning-job-1-ed07c-006-96f31fde 0.9158779978752136
5 automl-dm-28-tuning-job-1-ed07c-004-da2d99af 0.9130859971046448
6 automl-dm-28-tuning-job-1-ed07c-005-1e90fd67 0.9130859971046448
7 automl-dm-28-tuning-job-1-ed07c-008-4350b4fa 0.9119930267333984
8 automl-dm-28-tuning-job-1-ed07c-007-dae75982 0.9119930267333984
9 automl-dm-28-tuning-job-1-ed07c-009-c512379e 0.9119930267333984
10 automl-dm-28-tuning-job-1-ed07c-010-d905669f 0.8873512744903564

For now, I’m only interested in the best trial: 91.87% validation accuracy. Let’s deploy it to a SageMaker endpoint, just like we would deploy any model:

Python
model_arn = sm.create_model(Containers=best_candidate['InferenceContainers'],
                            ModelName=model_name,
                            ExecutionRoleArn=role)

ep_config = sm.create_endpoint_config(EndpointConfigName = epc_name,
                                      ProductionVariants=[{'InstanceType':'ml.m5.2xlarge',
                                                           'InitialInstanceCount':1,
                                                           'ModelName':model_name,
                                                           'VariantName':variant_name}])

create_endpoint_response = sm.create_endpoint(EndpointName=ep_name,
                                              EndpointConfigName=epc_name)

After a few minutes, the endpoint is live, and I can use it for prediction. SageMaker business as usual!

Now, I bet you’re curious about how the model was built, and what the other candidates are. Let me show you.

Full Visibility And Control with Amazon SageMaker Autopilot
SageMaker Autopilot stores training artifacts in S3, including two auto-generated notebooks!

Python
job = sm.describe_auto_ml_job(AutoMLJobName=auto_ml_job_name)
job_data_notebook = job['AutoMLJobArtifacts']['DataExplorationNotebookLocation']
job_candidate_notebook = job['AutoMLJobArtifacts']['CandidateDefinitionNotebookLocation']

print(job_data_notebook)
print(job_candidate_notebook)

s3://<PREFIX_REMOVED>/notebooks/SageMakerAutopilotCandidateDefinitionNotebook.ipynb
s3://<PREFIX_REMOVED>/notebooks/SageMakerAutopilotDataExplorationNotebook.ipynb

AWS는 보다 간단하게 기계학습을 이용하고 싶은 유저용으로 자동화된 기계학습, Auto ML로 이야기를 이어갔다. 트레이닝을 위한 충분한 데이터는 있지만 기계학습에 임하는 노하우나 인원, 시간이 없는 기업도 많기에 그러한 기업에게 Auto ML은 유익한 솔루션이지만 거기에는 과제도 있다고 지적했다.

 

"자동화 된 구조로 모델을 빌드하면 구체적으로 어떻게 빌드되었는지 몰라 블랙박스화 되버린다. 그래서 모델을 더욱 진화시켜 예측 정도를 향상시킬 수 없다. 또 다른 과제도 있다. 기계학습 용도에 따라서는 고속으로 예측할 수 있는 모델이 필요한 경우가 있는데 그런 것에도 대응할 수 없었다" 


Auto ML의 메리트를 누리면서 이러한 과제를 해소하는 것으로서 가시성이나 컨트롤을 잃지 않는 자동화된 트레이닝을 실현하는 툴로 Amazon SageMaker Autopilot이 발표됐다. 이것도 SageMaker Studio로 통합되어 있으며 이날부터 일반 제공을 개시했다. 사용자는 트레이닝 데이터가 되는 CSV 파일(테이블 데이터)를 준비할 뿐이며 다음 Autopilot이 데이터의 자동 변환, 최고의 알고리즘을 선택하고, 파라미터 및 알고리즘 등의 설정을 변화시키면서 최대 50 모델을 생성한다. SageMaker Studio 상에서는 이 다수의 모델을 정도순으로 리스트(랭킹)로 표시하고, 각 모델의 상세한 설정 등은 Notebook 형식으로 참조할 수 있다.

 

이것에 의해 어떠한 근거로 예측되고 있는지를 가시화하는 한편, 정밀도와 속도의 트레이드오프에도 유연하게 대응할 수 있다. 또 Autopilot에서 개발한 모델에 대해서도 전술한 SageMaker Studio나 Model Monitor 등의 기능군은 동일하게 이용할 수 있다. 기조 강연에서 언급하지 못했지만 기계학습 관련에서 또 하나 Amazon Augmented AI(Amazon A2I)이라는 새로운 서비스도 일반 제공이 개시됐다. 이것은 기계학습 어플리케이션에 의한 예측 신뢰성이 낮은 경우, 필요한 인간에 의한 리뷰의 워크플로우를 간단하게 구축할 수 있는 서비스다. 신뢰 스코어에 따라 자동으로 리뷰를 인간에게 할당 할 수 있고, 인간의 리뷰는 자사 종업원 뿐만 아니라 Amazon Mechanical Turk, AWS Marketplace의 서드파티 벤더에 대한 아웃소싱도 가능하다.


s4.png


기계학습 모델을 스스로 개발하는 것이 아니라 보다 간편하게 기계학습의 능력을 활용하고 싶은 유저용으로 미리 학습이 끝난 모델이 내장된 ML 서비스군도 제공되고 있다. AWS는 이를 'AI(인공지능) 서비스' 라고 부른다. 그 동안 화상/영상해석(Rekognition)과 음성 텍스트화(Transcribe), 음성합성(Polly), 번역(Translate), 인사이트 추출(Comprehend), 채팅봇(Lex) 등을 전개해 왔으며 지난해 re: Invent에서도 퍼스널라이즈(Personalize)나 예측(Forecast), OCR(Textract)을 발표한 바 있다.


이러한 AI 서비스군은 거대한 스케일로 전개되고 있는 컨슈머 비즈니스(Amazon.com)에서의 교사 데이터 수집과 실천으로 단련되어 온 것으로, 이번에도 Amazon의 현장에서 태어났다고 말할 수 있는 복수의 서비스군이 추가되고 있다. 우선, 어플리케이션 개발에서 코드 리뷰나 퍼포먼스 개선을 지원하는 ML 서비스로 Amazon CodeGuru를 발표하고 있다.(프리뷰 릴리스) 기계학습 모델에 근거하여 어플리케이션 코드에 포함되는 문제점이나 취약성을 지적하는 CodeGuru Reviewer, 어플리케이션 퍼포먼스를 지속 감시/분석하는 CodeGuru Profiler로 구성된다.


s5.png


CodeGuru의 기계학습 모델은 Amazon 사내의 프로젝트 및 GitHub 상의 오픈소스 프로젝트로부터 얻은 대량의 코드 베이스로 트레이닝되고 있기 때문에 말하자면 "베스트 프랙티스"를 모델화한 것이다. AWS에 따르면 CodeGuru는 실제로 Amazon 사내에서 8만 5000개의 앱에 적용되고 있으며 Amazon 프라임 데이의 CPU 사용률을 325% 향상시키고 39%의 비용 절감에 연결한 실적도 있다고 밝혔다.


s6.png


CodeGuru Reviewer는 개발자가 이용하는 코드 레파지토리 GitHub 및 AWS CodeCommit과 연계 동작하는 구조다. 개발자가 리퀘스트에 CodeGuru를 추가하면 CodeGuru는 자동으로 코드 리뷰를 실시하고 문제가 있는 곳에 권장사항을 코멘트한다. 또 CodeGuru Profiler는 에이전트를 통해 실전 환경의 애플리케이션 퍼포먼스를 지속적으로 감시하고, 감시 결과에 근거해 코드내의 처리에 가장 많은 자원을 필요로 하는 행의 특정이나 개선 방법의 권장 등을 실시한다.


s7.png


또, 기계학습 기술을 넣은 엔터프라이즈 검색 서비스 Amazon Kendra도 발표되고 있다.(프리뷰 릴리스) VPN에는 어떻게 접속해야 합니까? 라는 자연 언어 질문을 접수하고 데이터 소스 문서에서 정보를 추출하여 그 의도에 따른 답변을 실시한다. 기업 내에 있는 다양한 데이터 소스에 대응하고 있는 것도 특징으로, 제공되는 커넥터는 현 시점에서는 Web 사이트, Box, Dropbox, SharePoint, Salesforce, 릴레이셔널 데이터베이스, S3 파일 시스템 등에서 텍스트나 PDF, Word, PowerPoint 파일에서 정보를 추출할 수 있다. 또, 독자 커넥터를 개발하면 그 외의 데이터 소스로부터도 문서를 업로드 할 수 있다.

 

Kendra의 기계학습 모델은 검색을 실행한 유저의 피드백에 기초한 재트레이닝이나 튜닝도 행해진다. 검색 결과 순위는 질문에 대한 문서의 관련성 뿐만 아니라 작성일이나 유저의 액세스 수 등도 가미했는지 형태로 정해진다고 밝혔다. 


소매업 등을 향한 새로운 서비스로는 어카운트의 부정 등록이나 상품의 부정 구입등의 온라인 사기를 판정하는 서비스로 Amazon Fraud Detector도 발표됐다.(프리뷰 릴리스) Fraud Detector는 "과거 20년간의 컨슈머 비즈니스(Amazon.com)의 데이터에서 확립한 알고리즘"에 근거하여 부정을 검지한다고 밝혔다. 






List of Articles
제목 글쓴이 조회 수
[특별공지] 코로나19 관련 전 국민 대응 필요 RAPTER 6012
[AWS re:Invent 2019] 일반적인 개발자에게 머신러닝의 힘을 1 RAPTER 7069
애플 실적발표, "다각화 된 비지니스 포트폴리오의 견고함" 2 RAPTER 1625
MS, 애저 센티넬(Azure Sentinel)로 제로 트러스트형 보안 추진 RAPTER 2350
클라우드 게임 서비스 시대로, 소니가 주목한 MS 게임 플랫폼 RAPTER 1807
SAP HANA 클라우드 서비스 발표, HANA를 모든 데이터의 게이트웨이로 RAPTER 3226
포티넷(Fortinet), FortiOS 6.2에 대거 기능 강화 및 확충 RAPTER 1445
Dell EMC, 인공지능 간소화 패키지 Ready Solutions for AI 전개 RAPTER 2207
엔비디아 실적 발표 - 매출 21% / 순익 48% 증가 (Nvidia earnings) 2 RAPTER 2546
OOW 2018, 오라클이 설명하는 2세대 클라우드 비전 (Generation 2 Cl... RAPTER 3519
Dell EMC, 키네틱 인프라스트럭처 신제품 PowerEdge MX 발매 RAPTER 1560
3분기 인텔 실적 발표, "CPU 초 호황" 공급 부족 공식 확인 2 RAPTER 4156
Google Cloud Next '18) Kubernetes Engine, BigQuery ML, Edge TPU RAPTER 1812
2018년 2분기 엔비디아 실적 발표, 순익 89% 증가 '인텔 나와' 4 RAPTER 1611
미래는 해저 데이터 센터? Project Natick 실증 실험 RAPTER 1322
2018년 2분기 애플 실적, '모든 시장 환경을 무시한다' 5 RAPTER 2402
MS 클라우드 애저 기능 확장, 스피어/디도스 보호/보안 센터 등 RAPTER 6857
마이크로소프트, 애저 PaaS 기반 서비스 패브릭(Service Fabric) 오... RAPTER 2419
레드햇(Red Hat), CoreOS를 2억 5000만 달러에 인수 RAPTER 2533
인텔 실적 발표, 어닝 서프라이즈 및 최고 주가 경신 4 RAPTER 2617
시스코, 기업 iOS 디바이스를 보호하는 Security Connector 발표 RAPTER 1744
엔비디아 실적 발표, 인텔과 "패권" 전쟁 돌입 3 RAPTER 7401
애플 실적 발표, 다가올 사상 최대 실적의 서막 3 RAPTER 3280
아마존 AWS CloudTrail, Glue, EFS 등 서비스 개선 및 추가 RAPTER 2491
AMD 젠 아키텍처 분석 (프론트엔드, OP캐시, CCX, 인피니티 패브릭) 6 RAPTER 42978
인공지능(AI) 및 클라우드, 5G를 위한 Xeon Scalable 출시 RAPTER 2464
전세계 게이머들의 CPU, GPU, S/W 등 사용 동향 3 RAPTER 11367
뉴 패러다임 메모리 기반 컴퓨팅 - HPE The Machine RAPTER 3950
엔비디아 실적발표 - 글로벌 4차 산업혁명의 중심 기업 3 RAPTER 3846
5월 - 9월 인터내셔널 커스텀 [ 추천PC / 조립PC ] 6 RAPTER 15123
애저 네트워크 컨테이너와 광통신 기술의 오픈 소스화 RAPTER 1585
프로젝트 올림푸스(Open Compute Project), 데이터 센터 기술 동향 RAPTER 3370
2월 - 4월 인터내셔널 커스텀 [ 추천PC / 조립PC ] 8 RAPTER 11437
자율 주행 자동차와 엔비디아 (DRIVE PX2, DGX-1) 2 RAPTER 21868
소프트웨어 정의 시대, SD-WAN 네트워크 기술 동향 (ISP) 3 RAPTER 7961
AWS re:Invent 2016) 모던 데이터 아키텍처 3 RAPTER 2735
소프트웨어 정의 스토리지 - 레노버 Storage DX8200C RAPTER 1637
HPE Vertica 8, 어디에서나 데이터 전개와 분석이 가능하다 RAPTER 1271
엔씨소프트 실적 발표, 매출-영업이익-순익 증가 3 RAPTER 2386
2017년 보안 위협 예측 - Kaspersky (APT, IoC 등) RAPTER 1614
AMD Zen 프로세서가 다가온다, 관련 정보 (서밋릿지) 3 RAPTER 3449
VMware Virtual SAN 6.5 발표, HCI와 가상화 시대로 2 RAPTER 1412
구글 딥마인드의 차세대 인공지능 기술 DNC 발표 RAPTER 1587
10월 - 1월 인터내셔널 커스텀 [ 추천PC / 조립PC ] 7 RAPTER 14068
델 테크놀로지스 탄생, 세계 최대 비상장 통합 IT 기업 4 RAPTER 3544
구글 Cloud SQL 2세대 정식 공개, MySQL 호환 (Google Cloud Platform) RAPTER 1611
시스코 테트레이션 애널리틱스, 데이터 센터를 가시화 (Tetration an... RAPTER 2175
네트워크 가상화를 위한 VMware NSX의 최신 동향 RAPTER 1801
Cisco VNI - 인터넷,동영상,모바일 등 IP 트래픽 분석 2 RAPTER 3556
MS는 세계 최대 멀웨어 대처 기업 4 RAPTER 4702
7월 - 9월 인터내셔널 커스텀 [ 추천PC / 조립PC ] 13 RAPTER 11033
델 소닉월 캡처 제공 시작 (Dell SonicWALL UTM Capture) RAPTER 1516
HPE 프로라이언트 Gen9 서버부터 NVDIMM 본격 지원 RAPTER 1631
애플 실적 발표 - 한계에 도달한 모바일 사업 3 RAPTER 5636
서버/PC/모바일, 인텔 CPU-메인보드-SSD 종류 및 스펙 RAPTER 2342
RAPTER Ver. PC 배경화면 배포 (1920x1080 전용) 3 RAPTER 5090
기업 스토리지의 41%는 방치 데이터 - 베리타스 (Veritas) 2 RAPTER 2829
차원이 다른 올 플래시 스토리지, EMC DSSD D5 출격 3 RAPTER 8493
3월 - 5월 인터내셔널 커스텀 [ PC 구매 가이드 ] 6 RAPTER 12476
인간vs기계, 구글 인공지능 알파고와 이세돌의 경기에 집중 4 RAPTER 2115
후지쯔, 사물인터넷 기기의 고속 암호 통신 인증 기술 개발 (TLS) 2 RAPTER 2356
세계 사물인터넷 기업 순위는? 인텔-IBM-MS가 IoT 리더 2 RAPTER 13810
2016년 1월 12일 인터넷 익스플로러 구 버전 지원 종료 RAPTER 1988
디도스(DDos) 공격 동향 보고서 - 아카마이 테크놀로지 3 RAPTER 4490
12월 - 2월 인터내셔널 커스텀 [ 표준PC 가이드 ] 3 RAPTER 8952
FireEye HX 3.0 발표 - 엔드포인트 방어 솔루션 1 RAPTER 1666
빅데이터 플래시 시스템, 샌디스크 인피니플래시 발표(InfiniFlash) 1 RAPTER 3390
애플실적 발표 - 사상 최대 실적의 어닝 서프라이즈 4 RAPTER 2947
웨스턴디지털의 샌디스크 인수 - 백그라운드는 중국 3 RAPTER 3730
델 EMC 인수 - 엔터프라이즈 시장 경쟁력 강화 5 RAPTER 9086
세계 웹브라우저 점유율 및 OS 시장 점유율 1 RAPTER 2989
오라클, 솔라리스(Solaris)에 Docker 통합 계획 발표 RAPTER 1707
애플 실적 발표 - 아이폰 판매량 35% 증가 RAPTER 7492
9월 - 11월 인터내셔널 커스텀 [ 표준PC 가이드 ] 9 RAPTER 12597
만물 인터넷(IoE)에 대응하는 시스코의 인터클라우드 강화 (Cisco Li... 2 RAPTER 13205
4소켓 하이엔드 X86서버, 델 파워에지 R930 시장 투입 RAPTER 1461
차세대 윈도우10은 7가지 에디션 - 모든 플랫폼을 통합 RAPTER 15257
5월 - 7월 인터내셔널 커스텀 [ INTERNATIONAL CUSTOM ] 4 RAPTER 11878
EMC, EVO:RAIL 베이스 통합 어플라이언스 VSPEX BLUE 발매 RAPTER 1651
아마존 웹 서비스, 보다 대용량 및 고속 SSD 기반 EBS 볼륨 제공 RAPTER 3530
3D마크 v1.5 공개 - 다이렉트X 11,12/맨틀API 오버 헤드 비교 지원 RAPTER 4494
오라클 엑사데이터X5(Exadata) 제공 시작, 올 플래시 구성 대응 RAPTER 2556
Cisco 2015 Annual Security Report - 자바, 실버라이트, 오픈SSL 등 RAPTER 2893
인텔 실적 발표 - 2014년 브라이언 크르자니크의 경영 성과는? 2 RAPTER 2673
2월 - 4월 인터내셔널 커스텀 [ INTERNATIONAL CUSTOM ] RAPTER 11205
반도체 아키텍처 분석) x86, HSA, HBM, TSV, 3D V-NAND 3 RAPTER 71135
차원이 다른 x86 서버, HP 인테그리티 슈퍼돔 X 발매 (Integrity Sup... RAPTER 3680
글로벌 OS 점유율 및 웹 브라우저 점유율 현황 (PC/모바일) RAPTER 8846
애플 실적 발표 - 아이폰 및 맥PC 판매 호조, 아이패드 판매 감소 지속 RAPTER 3761
아마존, 음성 인식 비서 아마존 에코 발표 (Amazon Echo) RAPTER 10989
중국 텐허2가 슈퍼컴퓨터 1위 / 제온파이 라인업 추가 RAPTER 13193
11월 - 1월 인터내셔널 커스텀 [ INTERNATIONAL CUSTOM ] 7 RAPTER 8907
오라클 올 플래시 스토리지 신제품 Oracle FS1 발표 - 하이브리드 지원 RAPTER 2819
리눅스 파운데이션, 드론(무인항공기) SW를 위한 드론코드 프로젝트(... RAPTER 14953
MS의 차세대 OS 정식 명칭은 윈도우10, 다양한 플랫폼을 포괄한다 RAPTER 6194
구글이 양자 컴퓨터의 독자적 하드웨어(CPU) 개발 시작 - 큐비트 RAPTER 5606
IBM, 뇌에서 영감을 얻은 비 노이만 아키텍처 시냅스칩(SyNAPSE) 발표 RAPTER 5501
삼성전자 2분기 실적 발표 - 모바일 사업 급락, 반도체/소비자 가전 ... 2 RAPTER 11766
8월 - 10월 인터내셔널 커스텀 [ INTERNATIONAL CUSTOM ] 1 RAPTER 11243
HP, 암호화에 의한 데이터 보호 솔루션 Atalla 및 키 관리 ESKM 발표 RAPTER 2941
Board Pagination Prev 1 2 Next
/ 2