5월 4일 (토) 오전 2:30

logo

  • home
  • head
  • itnews
  • product
  • mobile
  • game
  • benchmark
  • analysis
  • blog

개봉 2024.06.05. / 장르 드람 / 국가 대한민국 감독 : 조지 밀러 출연 : 안야 테일러 조이, 크리스 헴스워스 등 ...
개봉 2024.05.22. / 장르 액션 / 국가 미국 감독 : 조지 밀러 출연 : 안야 테일러 조이, 크리스 헴스워스 등 ...

2019년 12월 2일~6일(현지시간) 미국 라스베이거스에서 "AWS re:Invent 2019" 행사가 진행됐다. 이 행사에서 AWS가 어필한 주요 내용을 살펴본다.


S1.png


머신러닝=기계학습(ML:Machine Learning)영역에서 새로운 서비스로서 Web 베이스의 기계학습용 IDE(통합 개발 환경)로 Amazon SageMaker Studio가 발표됐고, SageMaker Studio와 여기에 통합되어 있는 수 많은 새로운 기능과 새로운 서비스가 소개됐다.

 

S2.png


SageMaker는 2017년 re:Invent에서 발표된 기계학습 플랫폼으로 데이터 전문가 뿐만 아니라 일반적인 개발자도 기계학습을 취급할 수 있도록 해야 한다는 콘셉으로 SageMaker의 제공을 시작했다고 설명했다. 이후 AWS Marketplace와의 통합이나 모델 컴파일러 Amazon SageMaker Neo 추가 등 기능 강화를 진행해왔다.

 

"수 많은 고객들로부터 SageMaker로 인해 기계학습이 매우 쉬워졌고, 모든 스텝이 쉬워졌다고 평가받고 있으나 그와 동시에 각 스텝 간에 있는 작업, 처리가 잘 되고 있는지 아닌지를 이해하는 것은 아직 힘들다는 목소리가 들렸다. 그래서 소프트웨어 개발과 마찬가지로 엔드 투 엔드 통합 개발환경(=IDE)이 필요하다고 생각했다"

 

S3.png


SageMaker Studio는 프로젝트 폴더를 작성하고 코드, Notebook, 데이터 세트, 세팅 등 기계학습 관련 자원을 한곳에서 통합 관리할 수 있다. 프로젝트 폴더 내 검색 뿐만 아니라 개발자간 공유하여 온라인 콜라보레이션도 가능하다. 빌드, 트레이닝, 튜닝, 디플로이도 같은 인터페이스에서 실행할 수 있으며 SageMaker Studio에 편입되어 있는 새로운 기능/새로운 서비스군도 발표되고 있다.

 

SageMaker Notebooks : Jupyter Notebook의 매니지먼트 서비스. AWS의 컴퓨터와 연동되어 있으며 SageMaker의 Notebook instance를 사용자 스스로 부팅하지 않고 몇 번의 클릭으로 새로운 Notebook을 작성할 수 있다. 더 필요한 처리 자원에 따라 작업의 중단 없이 인스턴스를 자동 스케일

SageMaker Experiments : 트레이닝 데이터나 알고리즘, 파라미터, 플랫폼 구성 등을 변화시키면서 반복적으로 생성한 기계학습 모델의 전 버전에 대해 그 변수(설정)와 결과를 자동적으로 캡쳐하고, 어떤 것이 뛰어났는지를 비주얼하게 비교 검증 가능 

SageMaker Debugger : 기계학습 모델의 트레이닝 코드를 위한 디버거 모델 내부의 Status를 출력함으로써 대량의 파라미터 중 어떤 것이 어느 정도 결과에 영향을 주고 있는지를 가시화, 모델의 최적화(예측정도 향상)를 지원한다. Tensor Flow, PyTorch, MXNet 등 주요 프레임워크용 SDK 제공 

SageMaker Model Monitor : SageMaker Studio로 빌드하여, 실전 환경에 전개하고 있는 모델의 경년적, 외적인 환경 변화에 의한 예측 정확도 저하(콘셉 드리프트)를 감시한다. 정밀도 저하의 경보 뿐만 아니라 그 원인 특정에 도움이 되는 상세한 정보 제공



(예제)

Then, I upload it in Amazon Simple Storage Service (S3) without any preprocessing whatsoever.

Python
sess.upload_data(path="automl-train.csv", key_prefix=prefix + "/input")

's3://sagemaker-us-west-2-123456789012/sagemaker/DEMO-automl-dm/input/automl-train.csv'

Now, let’s configure the AutoML job:

  • Set the location of the data set,
  • Select the target attribute that I want the model to predict: in this case, it’s the ‘y’ column showing if a customer accepted the offer or not,
  • Set the location of training artifacts.
Python
input_data_config = [{
      'DataSource': {
        'S3DataSource': {
          'S3DataType': 'S3Prefix',
          'S3Uri': 's3://{}/{}/input'.format(bucket,prefix)
        }
      },
      'TargetAttributeName': 'y'
    }
  ]

output_data_config = {
    'S3OutputPath': 's3://{}/{}/output'.format(bucket,prefix)
  }

That’s it! Of course, SageMaker Autopilot has a number of options that will come in handy as you learn more about your data and your models, e.g.:

  • Set the type of problem you want to train on: linear regression, binary classification, or multi-class classification. If you’re not sure, SageMaker Autopilot will figure it out automatically by analyzing the values of the target attribute.
  • Use a specific metric for model evaluation.
  • Define completion criteria: maximum running time, etc.

One thing I don’t have to do is size the training cluster, as SageMaker Autopilot uses a heuristic based on data size and algorithm. Pretty cool!

With configuration out of the way, I can fire up the job with the CreateAutoMl API.

Python
auto_ml_job_name = 'automl-dm-' + timestamp_suffix
print('AutoMLJobName: ' + auto_ml_job_name)

import boto3
sm = boto3.client('sagemaker')
sm.create_auto_ml_job(AutoMLJobName=auto_ml_job_name,
                      InputDataConfig=input_data_config,
                      OutputDataConfig=output_data_config,
                      RoleArn=role)

AutoMLJobName: automl-dm-28-10-17-49

A job runs in four steps (you can use the DescribeAutoMlJob API to view them).

  1. Splitting the data set into train and validation sets,
  2. Analyzing data, in order to recommend pipelines that should be tried out on the data set,
  3. Feature engineering, where transformations are applied to the data set and to individual features,
  4.  Pipeline selection and hyperparameter tuning, where the top performing pipeline is selected along with the optimal hyperparameters for the training algorithm.

Once the maximum number of candidates – or one of the stopping conditions – has been reached, the job is complete. I can get detailed information on all candidates using the ListCandidatesForAutoMlJob API , and also view them in the AWS console.

Python
candidates = sm.list_candidates_for_auto_ml_job(AutoMLJobName=auto_ml_job_name, SortBy='FinalObjectiveMetricValue')['Candidates']
index = 1
for candidate in candidates:
  print (str(index) + "  " + candidate['CandidateName'] + "  " + str(candidate['FinalAutoMLJobObjectiveMetric']['Value']))
  index += 1

1 automl-dm-28-tuning-job-1-fabb8-001-f3b6dead 0.9186699986457825
2 automl-dm-28-tuning-job-1-fabb8-004-03a1ff8a 0.918304979801178
3 automl-dm-28-tuning-job-1-fabb8-003-c443509a 0.9181839823722839
4 automl-dm-28-tuning-job-1-ed07c-006-96f31fde 0.9158779978752136
5 automl-dm-28-tuning-job-1-ed07c-004-da2d99af 0.9130859971046448
6 automl-dm-28-tuning-job-1-ed07c-005-1e90fd67 0.9130859971046448
7 automl-dm-28-tuning-job-1-ed07c-008-4350b4fa 0.9119930267333984
8 automl-dm-28-tuning-job-1-ed07c-007-dae75982 0.9119930267333984
9 automl-dm-28-tuning-job-1-ed07c-009-c512379e 0.9119930267333984
10 automl-dm-28-tuning-job-1-ed07c-010-d905669f 0.8873512744903564

For now, I’m only interested in the best trial: 91.87% validation accuracy. Let’s deploy it to a SageMaker endpoint, just like we would deploy any model:

Python
model_arn = sm.create_model(Containers=best_candidate['InferenceContainers'],
                            ModelName=model_name,
                            ExecutionRoleArn=role)

ep_config = sm.create_endpoint_config(EndpointConfigName = epc_name,
                                      ProductionVariants=[{'InstanceType':'ml.m5.2xlarge',
                                                           'InitialInstanceCount':1,
                                                           'ModelName':model_name,
                                                           'VariantName':variant_name}])

create_endpoint_response = sm.create_endpoint(EndpointName=ep_name,
                                              EndpointConfigName=epc_name)

After a few minutes, the endpoint is live, and I can use it for prediction. SageMaker business as usual!

Now, I bet you’re curious about how the model was built, and what the other candidates are. Let me show you.

Full Visibility And Control with Amazon SageMaker Autopilot
SageMaker Autopilot stores training artifacts in S3, including two auto-generated notebooks!

Python
job = sm.describe_auto_ml_job(AutoMLJobName=auto_ml_job_name)
job_data_notebook = job['AutoMLJobArtifacts']['DataExplorationNotebookLocation']
job_candidate_notebook = job['AutoMLJobArtifacts']['CandidateDefinitionNotebookLocation']

print(job_data_notebook)
print(job_candidate_notebook)

s3://<PREFIX_REMOVED>/notebooks/SageMakerAutopilotCandidateDefinitionNotebook.ipynb
s3://<PREFIX_REMOVED>/notebooks/SageMakerAutopilotDataExplorationNotebook.ipynb

AWS는 보다 간단하게 기계학습을 이용하고 싶은 유저용으로 자동화된 기계학습, Auto ML로 이야기를 이어갔다. 트레이닝을 위한 충분한 데이터는 있지만 기계학습에 임하는 노하우나 인원, 시간이 없는 기업도 많기에 그러한 기업에게 Auto ML은 유익한 솔루션이지만 거기에는 과제도 있다고 지적했다.

 

"자동화 된 구조로 모델을 빌드하면 구체적으로 어떻게 빌드되었는지 몰라 블랙박스화 되버린다. 그래서 모델을 더욱 진화시켜 예측 정도를 향상시킬 수 없다. 또 다른 과제도 있다. 기계학습 용도에 따라서는 고속으로 예측할 수 있는 모델이 필요한 경우가 있는데 그런 것에도 대응할 수 없었다" 


Auto ML의 메리트를 누리면서 이러한 과제를 해소하는 것으로서 가시성이나 컨트롤을 잃지 않는 자동화된 트레이닝을 실현하는 툴로 Amazon SageMaker Autopilot이 발표됐다. 이것도 SageMaker Studio로 통합되어 있으며 이날부터 일반 제공을 개시했다. 사용자는 트레이닝 데이터가 되는 CSV 파일(테이블 데이터)를 준비할 뿐이며 다음 Autopilot이 데이터의 자동 변환, 최고의 알고리즘을 선택하고, 파라미터 및 알고리즘 등의 설정을 변화시키면서 최대 50 모델을 생성한다. SageMaker Studio 상에서는 이 다수의 모델을 정도순으로 리스트(랭킹)로 표시하고, 각 모델의 상세한 설정 등은 Notebook 형식으로 참조할 수 있다.

 

이것에 의해 어떠한 근거로 예측되고 있는지를 가시화하는 한편, 정밀도와 속도의 트레이드오프에도 유연하게 대응할 수 있다. 또 Autopilot에서 개발한 모델에 대해서도 전술한 SageMaker Studio나 Model Monitor 등의 기능군은 동일하게 이용할 수 있다. 기조 강연에서 언급하지 못했지만 기계학습 관련에서 또 하나 Amazon Augmented AI(Amazon A2I)이라는 새로운 서비스도 일반 제공이 개시됐다. 이것은 기계학습 어플리케이션에 의한 예측 신뢰성이 낮은 경우, 필요한 인간에 의한 리뷰의 워크플로우를 간단하게 구축할 수 있는 서비스다. 신뢰 스코어에 따라 자동으로 리뷰를 인간에게 할당 할 수 있고, 인간의 리뷰는 자사 종업원 뿐만 아니라 Amazon Mechanical Turk, AWS Marketplace의 서드파티 벤더에 대한 아웃소싱도 가능하다.


s4.png


기계학습 모델을 스스로 개발하는 것이 아니라 보다 간편하게 기계학습의 능력을 활용하고 싶은 유저용으로 미리 학습이 끝난 모델이 내장된 ML 서비스군도 제공되고 있다. AWS는 이를 'AI(인공지능) 서비스' 라고 부른다. 그 동안 화상/영상해석(Rekognition)과 음성 텍스트화(Transcribe), 음성합성(Polly), 번역(Translate), 인사이트 추출(Comprehend), 채팅봇(Lex) 등을 전개해 왔으며 지난해 re: Invent에서도 퍼스널라이즈(Personalize)나 예측(Forecast), OCR(Textract)을 발표한 바 있다.


이러한 AI 서비스군은 거대한 스케일로 전개되고 있는 컨슈머 비즈니스(Amazon.com)에서의 교사 데이터 수집과 실천으로 단련되어 온 것으로, 이번에도 Amazon의 현장에서 태어났다고 말할 수 있는 복수의 서비스군이 추가되고 있다. 우선, 어플리케이션 개발에서 코드 리뷰나 퍼포먼스 개선을 지원하는 ML 서비스로 Amazon CodeGuru를 발표하고 있다.(프리뷰 릴리스) 기계학습 모델에 근거하여 어플리케이션 코드에 포함되는 문제점이나 취약성을 지적하는 CodeGuru Reviewer, 어플리케이션 퍼포먼스를 지속 감시/분석하는 CodeGuru Profiler로 구성된다.


s5.png


CodeGuru의 기계학습 모델은 Amazon 사내의 프로젝트 및 GitHub 상의 오픈소스 프로젝트로부터 얻은 대량의 코드 베이스로 트레이닝되고 있기 때문에 말하자면 "베스트 프랙티스"를 모델화한 것이다. AWS에 따르면 CodeGuru는 실제로 Amazon 사내에서 8만 5000개의 앱에 적용되고 있으며 Amazon 프라임 데이의 CPU 사용률을 325% 향상시키고 39%의 비용 절감에 연결한 실적도 있다고 밝혔다.


s6.png


CodeGuru Reviewer는 개발자가 이용하는 코드 레파지토리 GitHub 및 AWS CodeCommit과 연계 동작하는 구조다. 개발자가 리퀘스트에 CodeGuru를 추가하면 CodeGuru는 자동으로 코드 리뷰를 실시하고 문제가 있는 곳에 권장사항을 코멘트한다. 또 CodeGuru Profiler는 에이전트를 통해 실전 환경의 애플리케이션 퍼포먼스를 지속적으로 감시하고, 감시 결과에 근거해 코드내의 처리에 가장 많은 자원을 필요로 하는 행의 특정이나 개선 방법의 권장 등을 실시한다.


s7.png


또, 기계학습 기술을 넣은 엔터프라이즈 검색 서비스 Amazon Kendra도 발표되고 있다.(프리뷰 릴리스) VPN에는 어떻게 접속해야 합니까? 라는 자연 언어 질문을 접수하고 데이터 소스 문서에서 정보를 추출하여 그 의도에 따른 답변을 실시한다. 기업 내에 있는 다양한 데이터 소스에 대응하고 있는 것도 특징으로, 제공되는 커넥터는 현 시점에서는 Web 사이트, Box, Dropbox, SharePoint, Salesforce, 릴레이셔널 데이터베이스, S3 파일 시스템 등에서 텍스트나 PDF, Word, PowerPoint 파일에서 정보를 추출할 수 있다. 또, 독자 커넥터를 개발하면 그 외의 데이터 소스로부터도 문서를 업로드 할 수 있다.

 

Kendra의 기계학습 모델은 검색을 실행한 유저의 피드백에 기초한 재트레이닝이나 튜닝도 행해진다. 검색 결과 순위는 질문에 대한 문서의 관련성 뿐만 아니라 작성일이나 유저의 액세스 수 등도 가미했는지 형태로 정해진다고 밝혔다. 


소매업 등을 향한 새로운 서비스로는 어카운트의 부정 등록이나 상품의 부정 구입등의 온라인 사기를 판정하는 서비스로 Amazon Fraud Detector도 발표됐다.(프리뷰 릴리스) Fraud Detector는 "과거 20년간의 컨슈머 비즈니스(Amazon.com)의 데이터에서 확립한 알고리즘"에 근거하여 부정을 검지한다고 밝혔다. 

  • profile
    RAPTER_A.I 2020.01.04 17:05
    Happy New Year, and I hope 2020 will be the best year
  • ?
    John 2021.01.14 15:11
    RAPTER is the real master of the Illuminati






List of Articles
제목 조회 수
HPE Vertica 8, 어디에서나 데이터 전개와 분석이 가능하다 1676
4소켓 하이엔드 X86서버, 델 파워에지 R930 시장 투입 1929
미래는 해저 데이터 센터? Project Natick 실증 실험 1939
HPE 프로라이언트 Gen9 서버부터 NVDIMM 본격 지원 1970
구글 딥마인드의 차세대 인공지능 기술 DNC 발표 1977
2017년 보안 위협 예측 - Kaspersky (APT, IoC 등) 2008
Dell EMC, 키네틱 인프라스트럭처 신제품 PowerEdge MX 발매 2026
EMC, EVO:RAIL 베이스 통합 어플라이언스 VSPEX BLUE 발매 2046
포티넷(Fortinet), FortiOS 6.2에 대거 기능 강화 및 확충 2093
VMware Virtual SAN 6.5 발표, HCI와 가상화 시대로 2 2098
델 소닉월 캡처 제공 시작 (Dell SonicWALL UTM Capture) 2099
애저 네트워크 컨테이너와 광통신 기술의 오픈 소스화 2172
오라클, 솔라리스(Solaris)에 Docker 통합 계획 발표 2177
FireEye HX 3.0 발표 - 엔드포인트 방어 솔루션 1 2201
2018년 2분기 엔비디아 실적 발표, 순익 89% 증가 '인텔 나와' 4 2334
2016년 1월 12일 인터넷 익스플로러 구 버전 지원 종료 2392
시스코, 기업 iOS 디바이스를 보호하는 Security Connector 발표 2403
Google Cloud Next '18) Kubernetes Engine, BigQuery ML, Edge TPU 2444
IPv6 네트워크에서 IPv4 주소를 공유하는 SA46T-AS 대규모 실험 성공 2629
2018년 2분기 애플 실적, '모든 시장 환경을 무시한다' 5 2795
인간vs기계, 구글 인공지능 알파고와 이세돌의 경기에 집중 4 2856
엔씨소프트 실적 발표, 매출-영업이익-순익 증가 3 2904
후지쯔, 사물인터넷 기기의 고속 암호 통신 인증 기술 개발 (TLS) 2 2966
클라우드 게임 서비스 시대로, 소니가 주목한 MS 게임 플랫폼 2984
와이브로(WIBRO)의 간략한 소개 3062
Dell EMC, 인공지능 간소화 패키지 Ready Solutions for AI 전개 3109
애플 실적발표, "다각화 된 비지니스 포트폴리오의 견고함" 2 3113
< 엔비디아 지포스 9000 시리즈 > 3127
레드햇(Red Hat), CoreOS를 2억 5000만 달러에 인수 3154
미션 크리티컬 타겟 델 파워에지 R920 / 1U 파워에지 R220 발표 3170
오라클 엑사데이터X5(Exadata) 제공 시작, 올 플래시 구성 대응 3185
인텔 실적 발표 - 2014년 브라이언 크르자니크의 경영 성과는? 2 3206
인텔 실적 발표, 어닝 서프라이즈 및 최고 주가 경신 4 3234
Cisco 2015 Annual Security Report - 자바, 실버라이트, 오픈SSL 등 3263
MS 윈도우XP 의 서비스 지원 종료를 실시간으로 확인 3318
AWS re:Invent 2016) 모던 데이터 아키텍처 3 3330
HP, 암호화에 의한 데이터 보호 솔루션 Atalla 및 키 관리 ESKM 발표 3336
IPv4, 마침내 한계에 도달 (IPv6) 3378
히타치 플래시 미디어 스토리지 - 유니파이드 HUS150 ALL FLASH 3410
오라클 올 플래시 스토리지 신제품 Oracle FS1 발표 - 하이브리드 지원 3445
소프트웨어 정의 스토리지 - 레노버 Storage DX8200C 3505
기업 스토리지의 41%는 방치 데이터 - 베리타스 (Veritas) 2 3564
구글이 스마트 컨택트 렌즈 개발, 눈물로 당뇨병 환자의 혈당치 측정 (구글X) 3577
시스코 테트레이션 애널리틱스, 데이터 센터를 가시화 (Tetration analytics) 3779
애플 실적 발표, 다가올 사상 최대 실적의 서막 3 3809
애플실적 발표 - 사상 최대 실적의 어닝 서프라이즈 4 3811
마이크로소프트, 애저 PaaS 기반 서비스 패브릭(Service Fabric) 오픈 소스화 3847
구글 Cloud SQL 2세대 정식 공개, MySQL 호환 (Google Cloud Platform) 3877
AMD Zen 프로세서가 다가온다, 관련 정보 (서밋릿지) 3 3914
프로젝트 올림푸스(Open Compute Project), 데이터 센터 기술 동향 3951
OOW 2018, 오라클이 설명하는 2세대 클라우드 비전 (Generation 2 Cloud) 3984
IBM, 빅데이터 타겟 소프트웨어 정의 스토리지 포트폴리오 공개 4087
네트워크 가상화를 위한 VMware NSX의 최신 동향 4091
MS, 애저 센티넬(Azure Sentinel)로 제로 트러스트형 보안 추진 4118
넷북 사용자들을 위한 S/W 4136
세계 웹브라우저 점유율 및 OS 시장 점유율 1 4182
페이스북의 가상현실? 리프트 헤드셋 제조 업체 오큘러스VR 인수 4232
인공지능(AI) 및 클라우드, 5G를 위한 Xeon Scalable 출시 4238
델 테크놀로지스 탄생, 세계 최대 비상장 통합 IT 기업 4 4257
아마존 웹 서비스, 보다 대용량 및 고속 SSD 기반 EBS 볼륨 제공 4281
웨스턴디지털의 샌디스크 인수 - 백그라운드는 중국 3 4292
애플 실적 발표 - 아이폰 및 맥PC 판매 호조, 아이패드 판매 감소 지속 4340
서버/PC/모바일, 인텔 CPU-메인보드-SSD 종류 및 스펙 4400
구글 클라우드 서비스 컴퓨트 엔진의 일반 제공 시작, 데비안, 레드햇/수세 리눅스, FreeBSD 등 지원 4464
랩터 인터내셔널 배경화면 배포 4505
오라클, 5TB의 테이프 드라이브 발표 4521
빅데이터 플래시 시스템, 샌디스크 인피니플래시 발표(InfiniFlash) 1 4536
뉴 패러다임 메모리 기반 컴퓨팅 - HPE The Machine 4613
3분기 인텔 실적 발표, "CPU 초 호황" 공급 부족 공식 확인 2 4637
엔비디아 실적발표 - 글로벌 4차 산업혁명의 중심 기업 3 4669
Cisco VNI - 인터넷,동영상,모바일 등 IP 트래픽 분석 2 4679
ARM, 차세대 모바일 기기를 위한 GPU "Mali-T658" 발표 4750
차원이 다른 x86 서버, HP Integrity Superdome X 발매 4760
엔비디아 실적 발표 - 매출 21% / 순익 48% 증가 (Nvidia earnings) 2 4781
유튜브의 랩터 인터내셔널 버전이 추가 되었습니다. 4903
태블릿 시장 및 엔비디아 쿼드코어 테그라3 4940
3D마크 v1.5 공개 - 다이렉트X 11,12/맨틀API 오버 헤드 비교 지원 4948
주니퍼 네트웍스의 차세대 클라우드 아키텍처 메타 패브릭(MetaFabric)+QFX5100 스위치 발표 4957
네이버 라인은 일본 국민 메신저 임을 재확인, 성인 81.6%가 라인 사용 5075
한계에 도달한 하드디스크의 대안 SSD 5162
고품격 컨슈머를 위한 ASUS 람보르기니 VX7 노트북 1 5225
MS는 세계 최대 멀웨어 대처 기업 4 5230
마이크로소프트의 새로운 시작, 제품별 직종별 대규모 조직 개편 시행 5290
IBM 최초의 상용 오픈플로우 컨트롤러 발표 (SDN VE,오픈스택 뉴트론,KVM) 5348
마이크로소프트 인터넷 익스플로러10 사용 캠페인 (IE10) 1 5351
디도스(DDos) 공격 동향 보고서 - 아카마이 테크놀로지 3 5370
AMD, x86과 ARM의 갭을 중개하는 동작 기반을 개발한다 5394
아마존 AWS CloudTrail, Glue, EFS 등 서비스 개선 및 추가 5459
2009년도 스토리지 업계 주요 포커스 - Cloud, Ssd, Deduplicate, FcoE 1 5521
엔비디아, GPU 컴퓨팅의 가능성을 어필 (Accelerated Computing) 1 5745
IBM, 뇌에서 영감을 얻은 비 노이만 아키텍처 시냅스칩(SyNAPSE) 발표 5830
인텔, HPC 타겟 “초 고밀도 집적 회로”의 개발에 착수 5863
인텔의 매니코어 아키텍쳐 MIC와 아톰 SoC 메드필드 5929
모빌리티로의 추진이 비지니스의 지속성과 생산성을 향상 (인텔 vPro) 5954
HP의 프로젝트 문샷 (ARM 키스톤 II 아키텍쳐) 5959
삼성의 아이피니티 지원 멀티 디스플레이 (AMD 아이피니티) 2 5981
구글이 양자 컴퓨터의 독자적 하드웨어(CPU) 개발 시작 - 큐비트 6195
개발자들의 비트코인 관심 급증 ― 비트코인 관련 프로젝트 17.8% 증가 1 6347
시스코와 Netapp, 플렉스팟 (FlexPod) 아키텍쳐로 양사의 제휴를 확대한다 6390
MS의 차세대 OS 정식 명칭은 윈도우10, 다양한 플랫폼을 포괄한다 6587
Board Pagination Prev 1 2 Next
/ 2