• Integer vitae nulla!

    Booker T. Washington

    I think I began learning long ago that those who are happiest are those who do the most for others

  • Suspendisse neque tellus

    Albert Einstein

    The significant problems we face cannot be solved at the same level of thinking we were at when we created them

  • Curabitur faucibus

    Napoleon Hill

    All achievements, all earned riches, have their beginning in an idea

Rabu, 20 Juli 2011

Banyak yang harus dilakukan untuk Disaster Recovery di Asia / Pasifik – Survey IDC


Dalam sebuah survei terbaru di seluruh Asia / Pasifik pasar, IDC menemukan bahwa kurang dari sepertiga organisasi yang diwawancarai akan dapat memulihkan lebih dari 50 persen dari aplikasi mereka secara real-time harus mogok bencana. Ini berarti sebagian besar organisasi akan memiliki kurang dari setengah dari sistem mereka berjalan pada saat terjadi bencana. 

"Mengingat peristiwa bencana terakhir di wilayah tersebut, pertanyaan kita dibiarkan dengan : Teknologi informasi seperti menjadi bagian penting dari hari-hari kehidupan kita, apakah  tingkat ketersediaan yang memadai, bukan hanya untuk organisasi-organisasi yang menanggapi 
survei ini, tetapi untuk yang lain juga, untuk mempertahankan operasi sehari-hari yang normal ? Ambil contoh dari dua pemadaman besar yang terjadi pada 2010 di seluruh wilayah. Sistem DBS Bank Singapura offline untuk 7 jam pada bulan Juli 2010 dan Penerbangan Australia, Virgin Blue, keluar dari masalah itu lebih lama pada bulan September 2010. Meskipun jelas dampak untuk setiap bisnis ini sebagai hasil dari pemadaman, yang lebih penting adalah dampak ke ribuan pelanggan yang masing-masing bisnis ini telah, "Simon Piff, Direktur Program, Enterprise Infrastructure, Practise Grup, IDC Asia / Pasifik. 


Fair-nya adalah, jika perusahaan penerbangan dan bank-bank mampu mengembalikan sistem utama mereka secara real-time, mungkin masalah ini tidak separah seperti yang muncul. Kenyataannya adalah, mengingatkan sebuah pertanyaan mengenai bahwa dalam dunia saat ini di mana hampir semua orang dan segala sesuatu, terutama di sektor komersial, sekarang beroperasi di lingkungan 24x7x365, apakah tingkat ketersediaan yang dapat diterima? 



Analisis lebih lanjut dari survei ini menunjukkan bahwa hanya 11% responden akan mampu mengembalikan setiap sistem mereka secara real-time. Dengan responden yang diambil dari banyak industri, ada kemungkinan bahwa untuk beberapa dari mereka, sistem TI mereka dibutuhkan sebagai kritis yang lain. Dan jelas akan ada beberapa dampak keuangan untuk organisasi-organisasi ini, bahkan jika sistem yang offline untuk waktu yang singkat, terutama jika titik-waktu adalah satu penting untuk sistem tersebut untuk beroperasi. 

Untuk mengatasi masalah tersebut, banyak pemerintah di seluruh wilayah ini telah mengeluarkan semacam pedoman untuk memastikan jenis jika pemadaman terjadi kurang dan kurang sering. Otoritas Moneter Singapura, misalnya, telah mengamanatkan bahwa 4 jam adalah toleransi maksimum dari server TI yang dapat offline.  Sayangnya DBS melebihi toleransi ini dan pasti ada penalti karena hal tersebut. IDC menyarankan pemerintah untuk berbuat lebih banyak di daerah-daerah dimana akses ke sistem TI merupakan kritikal, tidak hanya untuk organisasi yang memiliki dan mengelola mereka, tetapi juga mempertimbangkan para pelanggan yang dipengaruhi oleh sistem ini. 

Informasi lebih lanjut tentang survei dan lainnya kshususnya tentang kekhawatiran manajemen tentang hal diatas, akan dibahas dalam IDC Asia / Pasific ICT mendatang pada Transformative ICT Conference 2011.  Acara ini merupakan topik panas, meliputi 13 kota besar di Asia / Pasifik, dengan fokus tema "Thinking Differently Amidst The Hype".

Jumat, 25 Maret 2011

Managed Services

Managed services let customer offload specific or total IT operations to a service provider, known in tech parlance as a Managed Services Provider. 

The managed service provider assumes ongoing responsibility for monitoring, managing and/or problem resolution for selected IT systems and functions on customer’s behalf. 

Managed services providers can offer services such as alerts, security, patch management, data backup and recovery for different client devices. 

Managed Services Providers able to offload routine infrastructure management to an experienced managed services professional.  With Managed Services customer can more concentrate on running their core business, with fewer interruptions due to IT issues.

Want to know more about managed services ? 
Please visit : http://www.antaratechnology.co.cc 

Senin, 07 Maret 2011

Information Technology Infrastructure Library (I.T.I.L.)

ITIL atau Information Technology Infrastructure Library (Bahasa Inggris, diterjemahkan Pustaka Infrastruktur Teknologi Informasi), adalah suatu rangkaian konsep dan teknik pengelolaaninfrastruktur, pengembangan, serta operasi teknologi informasi (TI). ITIL diterbitkan dalam suatu rangkaian buku yang masing-masing membahas suatu topik pengelolaan TI. Nama ITIL dan IT Infrastructure Library merupakan merek dagang terdaftar dari Office of Government Commerce (OGC) Britania Raya. ITIL memberikan deskripsi detil tentang beberapa praktik TI penting dengan daftar cek, tugas, serta prosedur yang menyeluruh yang dapat disesuaikan dengan segala jenis organisasi TI.

Walaupun dikembangkan sejak dasawarsa 1980-an, penggunaan ITIL baru meluas pada pertengahan 1990-an dengan spesifikasi versi keduanya (ITIL v2) yang paling dikenal dengan dua set bukunya yang berhubungan dengan ITSM (IT Service Management), yaitu Service Delivery (Antar Layanan) dan Service Support (Dukungan Layanan).

Pada 30 Juni 2007, OGC menerbitkan versi ketiga ITIL (ITIL v3) yang intinya terdiri dari lima bagian dan lebih menekankan pada pengelolaan siklus hidup layanan yang disediakan oleh teknologi informasi. Kelima bagian tersebut adalah:
1.            Service Strategy
2.            Service Design
3.            Service Transition
4.            Service Operation
5.            Continual Service Improvement

Kelima bagian tersebut dikemas dalam bentuk buku, atau biasa disebut sebagai core guidance publications. Setiap buku dalam kelompok utama ini berisi:
1.            Practice fundamentals  
menjelaskan latar belakang tahapan lifecycle serta kontribusinya terhadap pengelolaan layanan TI secara keseluruhan.
2.            Practice principles 
menjelaskan konsep-konsep kebijakan serta tata kelola tahanan lifecycle yang menjadi acuan setiap proses terkait dalam tahapan ini.
3.            Lifecycle processes and activities 
menjelaskan berbagai proses maupun aktivitas yang menjadi kegiatan utama tahapan lifecycle. Misalnya proses financial management dan demand management dalam tahapan Service Strategy.
4.            Supporting organization structures and roles 
proses-proses ITIL tidak akan dapat berjalan dengan baik tanpa defini roles dan responsibilities. Bagian ini menjelaskan semua aspek yang terkait dengan kesiapan model dan struktur organisasi.
5.            Technology considerations 
menjelaskan solusi-solusi otomatisasi atau software ITIL yang dapat digunakan pada tahapan lifecycle, serta persyaratannya.
6.            Practice Implementation 
berisi acuan/panduan bagi organisasi TI yang ingin mengimplementasikan atau yang ingin meningkatkan proses-proses ITIL.
7.            Complementary guideline 
berisi acuan model-model best practice lain selain ITIL yang dapat digunakan sebagai referensi bagian tahapan lifecycle.
8.            Examples and templates 
berisi template maupun contoh-contoh pengaplikasian proses.

Di samping buku-buku dalam core guidance publications, ada juga complementary guidance. Dimana buku-buku dalam kategori nantinya dimaksudkan untuk memberikan model, acuan dan panduan bagi penerapan ITIL pada sektor-sektor tertentu seperti jenis industri tertentu, tipe organisasi serta arsitektur teknologi. Dengan demikian, ITIL akan dapat lebih diterima serta diadaptasi sesuai dengan lingkungan serta behaviour dari setiap organisasi TI.

Siklus Layanan ITIL
Kelima bagian ITIL yang seperti tersebut di atas biasanya disebut juga sebagai bagian dari sebuah siklus. Dikenal pula dengan sebutan Sikuls Layanan ITIL. Secara singkat, masing-masing bagian dijelaskan sebagai berikut.

Service Strategy Inti dari ITIL Service Lifecycle adalah Service Strategy.
Service Strategy memberikan panduan kepada pengimplementasi ITSM pada bagaimana memandang konsep ITSM bukan hanya sebagai sebuah kemampuan organisasi (dalam memberikan, mengelola serta mengoperasikan layanan TI), tapi juga sebagai sebuah aset strategis perusahaan. Panduan ini disajikan dalam bentuk prinsip-prinsip dasar dari konsep ITSM, acuan-acuan serta proses-proses inti yang beroperasi di keseluruhan tahapan ITIL Service Lifecycle.

Topik-topik yang dibahas dalam tahapan lifecycle ini mencakup pembentukan pasar untuk menjual layanan, tipe-tipe dan karakteristik penyedia layanan internal maupun eksternal, aset-aset layanan, konsep portofolio layanan serta strategi implementasi keseluruhan ITIL Service Lifecycle. Proses-proses yang dicakup dalam Service Strategy, di samping topik-topik di atas adalah:
1.            Service Portfolio Management
2.            Financial Management
3.            Demand Management

Bagi organisasi TI yang baru akan mengimplementasikan ITIL, Service Strategy digunakan sebagai panduan untuk menentukan tujuan/sasaran serta ekspektasi nilai kinerja dalam mengelola layanan TI serta untuk mengidentifikasi, memilih serta memprioritaskan berbagai rencana perbaikan operasional maupun organisasional di dalam organisasi TI.

Bagi organisasi TI yang saat ini telah mengimplementasikan ITIL, Service Strategy digunakan sebagai panduan untuk melakukan review strategis bagi semua proses dan perangkat (roles, responsibilities, teknologi pendukung, dll) ITSM di organisasinya, serta untuk meningkatkan kapabilitas dari semua proses serta perangkat ITSM tersebut.

Service Design Agar layanan TI dapat memberikan manfaat kepada pihak bisnis, layanan-layanan TI tersebut harus terlebih dahulu di desain dengan acuan tujuan bisnis dari pelanggan. Service Design memberikan panduan kepada organisasi TI untuk dapat secara sistematis dan best practice mendesain dan membangun layanan TI maupun implementasi ITSM itu sendiri. Service Design berisi prinsip-prinsip dan metode-metode desain untuk mengkonversi tujuan-tujuan strategis organisasi TI dan bisnis menjadi portofolio/koleksi layanan TI serta aset-aset layanan, seperti server, storage dan sebagainya.

Ruang lingkup Service Design tidak melulu hanya untuk mendesain layanan TI baru, namun juga proses-proses perubahan maupun peningkatan kualitas layanan, kontinyuitas layanan maupun kinerja dari layanan.

Proses-proses yang dicakup dalam Service Design yaitu:
1.            Service Catalog Management
2.            Service Level Management
3.            Supplier Management
4.            Capacity Management
5.            Availability Management
6.            IT Service Continuity Management
7.            Information Security Management

Service Transition Service Transition menyediakan panduan kepada organisasi TI untuk dapat mengembangkan serta kemampuan untuk mengubah hasil desain layanan TI baik yang baru maupun layanan TI yang diubah spesifikasinya ke dalam lingkungan operasional. Tahapan lifecycle ini memberikan gambaran bagaimana sebuah kebutuhan yang didefinisikan dalam Service Strategy kemudian dibentuk dalam Service Design untuk selanjutnya secara efektif direalisasikan dalam Service Operation.

Proses-proses yang dicakup dalam Service Transition yaitu:
1.            Transition Planning and Support
2.            Change Management
3.            Service Asset & Configuration Management
4.            Release & Deployment Management
5.            Service Validation
6.            Evaluation
7.            Knowledge Management

Service Operation Service Operation merupakan tahapan lifecycle yang mencakup semua kegiatan operasional harian pengelolaan layanan-layanan TI. Di dalamnya terdapat berbagai panduan pada bagaimana mengelola layanan TI secara efisien dan efektif serta menjamin tingkat kinerja yang telah diperjanjikan dengan pelanggan sebelumnya. Panduan-panduan ini mencakup bagaiman menjaga kestabilan operasional layanan TI serta pengelolaan perubahan desain, skala, ruang lingkup serta target kinerja layanan TI.

Proses-proses yang dicakup dalam Service Transition yaitu:
1.            Event Management
2.            Incident Management
3.            Problem Management
4.            Request Fulfillment
5.            Access Management

Continual Service Improvement Continual Service Improvement (CSI) memberikan panduan penting dalam menyusun serta memelihara kualitas layanan dari proses desain, transisi dan pengoperasiannya. CSI mengkombinasikan berbagai prinsip dan metode dari manajemen kualitas, salah satunya adalah Plan-Do-Check-Act (PDCA) atau yang dikenal sebagi Deming Quality Cycle.

Conformance atau Compliance?
Dalam mengimplementasikan ITIL, organisasi TI sangat di rekomendasikan untuk mengadaptasi ITIL dalam koridor-koridor yang sesuai dengan kebutuhan dan sifat dari organisasinya. Jadi, setiap organisasi TI cenderung akan memiliki keanekaragaman dalam mengimplementasikan/mengadaptasi proses-proses ITIL.
Sebagai contoh misalnya, organisasi tempat Anda bekerja saat ini sedang mengimplemtasikan proses Change Management seperti yang dijabarkan dalam tahapan lifecycle Service  Transition. Dalam banyak kejadian, proses serta model yang telah dijabarkan dalam Service Transition terkait dengan Change

Management adalah proses dan model yang dapat secara apa adanya, tanpa perubahan, diterapkan dalam organisasi Anda, misalnya untuk proses perubahan yang normal maupun emergency. Begitu pula dengan role serta tanggung jawab dari setiap orang yang nantinya akan terlibat dalam proses tersebut, target kinerja baik secara proses maupun individu, input dan output dari proses dan aktivitas, semuanya tergambar dengan jelas dalam tahapan lifecycle Service Transtion, khusunya Change Management. Namun, jika organisasi Anda memerlukan beberapa tambahan proses/aktivitas untuk perubahan emergency, karena adanya beberapa kebutuhan otorisasi, maka selama secara umum tidak ada perubahan signifikan terhadap model awal, input dan ouput proses tetap sesuai dan tujuan dari proses tetap tercapai, maka dapat dikatakan organisasi Anda telah menerapkan best practice untuk proses Change Management dan sesuai dengan kebutuhan yang telah dijabarkan dalam konteks organisasi Anda.

ITIL adalah sebuah kerangka/model best practice yang dapat digunakan oleh banyak organisasi TI sebagai acuan (conform), dan tidak berarti harus sama (comply). Dalam konsep conformance, variasi untuk fl  eksibilitas dalam mengadaptasi sebuah proses di sebuah organisasi, diizinkan, sejauh keseluruhan kerangka model yang diadaptasi masih dipergunakan. Namun dalam compliance, keseragaman dan kesesuaian cenderung menjadi kata kunci, bahkan secara periodik akan ada proses audit yang akan memastikan keseragaman dan kesesuaian ini.

Banyak organisasi TI saat ini menggunakan ITIL sebagai acuan untuk memperoleh kesesuaian terhadap sebuah standar internasional, yang dalam hal ini adalah ISO/IEC 20000:2005. Standar ini mensyaratkan berbagai hal dalam ITSM yang harus dipenuhi/dilakukan/diatur oleh organisasi TI jika ingin mendapatkan sertifikasi ISO, dan ITIL diakui sebagai salah satu model ITSM yang dapat digunakan untuk membantu pencapaian kesesuaian dengan standar ISO.

Information Technology Service Management (ITSM)

ITSM atau Manajemen Layanan Teknologi Informasi adalah suatu metode pengelolaan sistem teknologi informasi (TI) yang secara filosofis terpusat pada perspektif konsumen layanan TI terhadap bisnis perusahaan. ITSM merupakan kebalikan dari pendekatan manajemen TI dan interaksi bisnis yang terpusat pada teknologi. Istilah ITSM tidak berasal dari suatu organisasi, pengarang, atau pemasok tertentu dan awal penggunaan frase inipun tidak jelas kapan dimulainya.

ITSM berfokus pada proses dan karenanya terkait dan memiliki minat yang sama dengan kerangka kerja dan metodologi gerakan perbaikan proses (seperti TQM, Six Sigma, Business Process Management, danCMMI). Disiplin ini tidak memedulikan detil penggunaan produk suatu pemasok tertentu atau detil teknis suatu sistem yang dikelola, melainkan berfokus pada upaya penyediaan kerangka kerja untuk menstrukturkan aktivitas yang terkait dengan TI dan interaksi antara personil teknis TI dengan pengguna teknologi informasi.

ITSM umumnya menangani masalah operasional manajemen teknologi informasi (kadang disebut operations architecture, arsitektur operasi) dan bukan pada pengembangan teknologinya sendiri. Contohnya, proses pembuatan perangkat lunak komputer untuk dijual bukanlah fokus dari disiplin ini, melainkan sistem komputer yang digunakan oleh bagian pemasaran dan pengembangan bisnis di perusahaan perangkat lunak-lah yang merupakan fokus perhatiannya. Banyak pula perusahaan non-teknologi, seperti pada industri keuangan, ritel, dan pariwisata, yang memiliki sistem TI yang berperan penting, walaupun tidak terpapar langsung kepada konsumennya.

Sesuai dengan fungsi ini, ITSM sering dianggap sebagai analogi disiplin ERP pada TI, walaupun sejarahnya yang berakar pada operasi TI dapat membatasi penerapannya pada aktivitas utama TI lainnya seperti manajemen portfolio TI dan rekayasa perangkat lunak.

Kerangka kerja
Kerangka kerja (framework) yang dianggap dapat memberikan contoh penerapan ITSM di antaranya:
•             Information Technology Infrastructure Library (ITIL)
•             Control Objectives for Information and Related Technology (COBIT)
•             Software Maintenance Maturity Model
•             PRM-IT IBM's Process Reference Model for IT
•             Application Services Library (ASL)
•             Business Information Services Library (BISL)
•             Microsoft Operations Framework (MOF)
•             eSourcing Capability Model for Service Providers (eSCM-SP) dan eSourcing Capability Model for Client Organizations (eSCM-CL) dari ITSqc for Sourcing Management.

Minggu, 06 Maret 2011

CLOUD COMPUTING

Komputasi sebenarnya dapat diartikan sebagai cara untuk menemukan pemecahan masalah dari data input dengan menggunakan suatu algoritma. Hal ini adalah apa yang disebut dengan teori komputasi, suatu sub-bidang dari ilmu komputer dan matematika. Selama ribuan tahun, perhitungan dan komputasi umumnya dilakukan denganmenggunakan pena dan kertas, atau kapur dan batu tulis, atau dikerjakan secara mental, kadang-kadang dengan bantuan suatu tabel. Namun sekarang, kebanyakan komputasi telah dilakukan dengan menggunakan komputer.

Secara umum iIlmu komputasi adalah bidang ilmu yang mempunyai perhatian pada penyusunan model matematika dan teknik penyelesaian numerik serta penggunaan komputer untuk menganalisis dan memecahkan masalah-masalah ilmu (sains). Dalam penggunaan praktis, biasanya berupa penerapan simulasi komputer atau berbagai bentukkomputasi lainnya untuk menyelesaikan masalah-masalah dalam berbagai bidang keilmuan, tetapi dalam perkembangannya digunakan juga untukmenemukan prinsip prinsip baru yang mendasar dalam ilmu.

Bidang ini berbeda dengan ilmu komputer (computer science), yang mengkaji komputasi, komputer dan pemrosesan informasi. Bidang ini juga berbeda dengan teori dan percobaan sebagai bentuk tradisional dari ilmu dan kerja keilmuan. Dalam ilmu alam, pendekatan ilmu komputasi dapat memberikan berbagai pemahaman baru, melalui penerapan model-model matematika dalam program komputer berdasarkan landasan teori yang telah berkembang, untuk menyelesaikan masalah-masalah nyata dalam ilmu tersebut.

Komputasi Modern
John von Neumann (1903-1957) adalah ilmuan yang meletakkan dasar-dasar komputer modern. Dalam hidupnya yang singkat, Von Neumann telah menjadi ilmuwan besar abad 21. Von Neumann meningkatkan karya-karyanya dalam bidang matematika, teori kuantum, game theory, fisika nuklir, dan ilmu komputer. Beliau juga merupakan salah seorang ilmuwan yang sangat berpengaruh dalam pembuatan bom atom di Los Alamospada Perang Dunia II lalu.

Von Neumann dilahirkan di Budapest, Hungaria pada 28 Desember 1903 dengan nama Neumann Janos. Dia adalah anak pertama dari pasangan Neumann Miksa dan Kann Margit. Di sana, nama keluarga diletakkan di depan nama asli. Sehingga dalam bahasa Inggris, nama orang tuanya menjadi Max Neumann. Pada saat Max Neumann memperoleh gelar, maka namanya berubah menjadi Von Neumann. Setelah bergelar doktor dalam ilmu hukum, dia menjadi pengacara untuk sebuah bank. Pada tahun 1903,Budapest terkenal sebagai tempat lahirnya para manusia genius dari bidang sains, penulis, seniman dan musisi.

Von Neumann juga belajar di Berlin dan Zurich dan mendapatkan diploma pada bidang teknik kimia pada tahun 1926. Pada tahun yang sama dia mendapatkan gelar doktor pada bidang matematika dari Universitas Budapest. Keahlian Von Neumann terletak pada bidang teori game yang melahirkan konsep seluler automata, teknologi bom atom, dan komputasi modern yang kemudian melahirkan komputer. Kegeniusannya dalam matematika telah terlihat semenjak kecil dengan mampu melakukan pembagian bilangan delapan digit (angka) di dalam kepalanya. Setelah mengajar di Berlin dan Hamburg, Von Neumann pindah ke Amerika pada tahun 1930 dan bekerja di Universitas Princeton serta menjadi salah satu pendiri Institute for Advanced Studies.

Dipicu ketertarikannya pada hidrodinamika dan kesulitan penyelesaian persamaan diferensial parsial nonlinier yang digunakan, Von Neumann kemudian beralih dalam bidang komputasi. Sebagai konsultan pada pengembangan ENIAC, dia merancang konsep arsitektur komputer yang masih dipakai sampai sekarang. Arsitektur Von Nuemann adalah komputer dengan program yang tersimpan (program dan data disimpan pada memori) dengan pengendali pusat, I/O, dan memori.Komputasi bisa diartikan sebagai cara untuk menyelesaikan sebuah masalah dari inputan data dengan menggunakan algoritma.

Teknologi komputasi adalah aktivitas penggunaan dan pengembangan teknologi komputer, perangkat keras, dan perangkat lunak komputer. Ia merupakan bagian spesifik komputer dari teknologi informasi.Konsep dasar arsitektur komputer modern adalah konsep sebuah sistem yang menerima intruksi-intruksi dan menyimpannya dalam sebuah memory. Konsep ini pertama kali digagasi oleh John Von Neumann. Beliau di lahirkan di Budapest, ibukota Hungaria pada 28 Desember 1903 dengan nama Neumann Janos. Karya – karya yang dihasilkan adalah karya dalam bidang matematika, teori kuantum, game theory, fisika nuklir, dan ilmu komputer. Beliau juga merupakan salah seorang ilmuwan yang sangat berpengaruh dalam pembuatan bom atom di Los Alamos pada Perang Dunia II lalu. Kepiawaian John Von Neumann teletak pada bidang teori game yang melahirkan konsep automata, teknologi bom atom dan komputasi modern yang kemudian melahirkan komputer.

Pengertian : Komputasi sebetulnya bisa diartikan sebagai cara untuk menemukan pemecahan masalah dari data input dengan menggunakan suatu algoritma. Komputasi merupakan suatu sub-bidang dari ilmu komputer dan matematika. Selama ribuan tahun, perhitungan dan komputasi umumnya dilakukan dengan menggunakan pena dan kertas, atau kapur dan batu tulis, atau dikerjakan secara mental, kadang-kadang dengan bantuan suatu tabel. Namun sekarang, kebanyakan komputasi telah dilakukan dengan menggunakan komputer. Komputasi yang menggunakan komputer inilah yang disebut dengan Komputasi Modern. Komputasi modern menghitung dan mencari solusi dari masalah yang ada, yang menjadi perhitungan dari komputasi modern adalah :
•             Akurasi (bit, Floating poin)
•             Kecepatan (Dalam satuan Hz)
•             Problem volume besar (Down sizing atau paralel)
•             Modeling (NN dan GA)
•             Kompleksitas (Menggunakan teori Big O).

About CLOUD COMPUTING

Pendahuluan
Saat ini dengan cepatnya perkembangan IT telah membuat proses dan strategis bisnis berubah dengan cepat. Tidak ada lagi management perusahaan yang tidak peduli dengan persaingan produk dari rival bisnisnya, Penggunaan perangkat IT sudah menjadi keharusan saat ini, yang dapat dilihat dari anggaran belanja sampai dengan implementasi IT di sebuah perusahaan. IT sudah dipandang sebagai salah satu senjata untuk bersaing di kompetisi global, kecenderungan ini terlihat dari tidak digunakannya lagi IT sebagai pelengkap dari proses bisnis perusahaan, namun IT dijadikan sebagai bagian dari proses bisnisnya.

Dahulu sangat sulit menyakinkan pimpinan perusahaan untuk menjadikan IT sebagai suatu solusi yang dapat membantu visi-misi dan proses bisnis apalagi menyamakan strategi IT dengan visimisi dan strategi bisnis perusahaan. Sejak era tahun 2000an disaat sudah banyak solusi yang diberikan oleh vendor IT di dunia dengan konsep one stop solutions nya, muncul permasalahan baru yaitu besarnya dana / anggaran yang dibutuhkan untuk mengimplementasikan teknologinya sampai dengan pembiayaan maintenance yang dibutuhkan. Belum lagi dipusingkan dengan kurangnya skill SDM yang menguasai teknologi baru tersebut. Kecenderungan saat ini teknologi semakin perkembang dengan cepat, perangkat keras / lunak muncul dengan versi atau model terbaru, hal ini juga berdampak pada permasalahan teknis dan non teknis seharihari dilapangan semakin kompleks. Jangan sampai perangkat yang mahal dan terbaru tidak dapat optimal karena permasalahan klasik dan teknis lainnya.

Solusi Sistem Enterprise seperti ERP dengan SAPnya telah menjadi solusi bagi perusahaan untuk meningkatkan efisiensi dan keakuratan bisnis dalam proses produk yang dihasilkan. Harapan management setelah mengimplementasikan sistem integrasi enterprise ini dapat meningkat seperti fungsi control, monitoring dan pengambilan keputusan.

Paradigma Baru
Karena tuntutan kebutuhan akan informasi yang semakin cepat, tata kelola ICT dalam manajemen di suatu perusahaan akan semakin kompleks baik dari sisi teknis atau non teknis lainnya. Tuntutan ini memunculkan ”lahan bisnis” baru bagi para provider, munculnya solusi outsourching yang mempercayakan sistem ICT perusahaan dihandle dan dimaintenance oleh pihak ketiga (vendor). Dahulu Model dianggap paling tepat untuk solusi perusahaan yang tidak mempunyai dana lebih dalam implementasi IT dan tidak mempunyai divisi khusus IT /EDP. Namun dalam perkembangan dilapangan provider ini mulai bergeser ke services content atau pemain layanan data & Internet (ISP) mulai melirik pangsa pasar ini.

Era akhir tahun 90an dan awal tahun 200an, terdapat solusi yang ditawarkan pada vendor perangkat lunak, Konsep ini dahulu dikenal dengan ASP (Application Service Provider), menurut Kamus Komputer ASP ini merupakan suatu usaha yang menawarkan akses berupa penggunaan aplikasi perangkat lunak kepada pengguna individu maupun perkantoran melalui sarana Internet. Pada dasarnya ASP adalah suatu Independent Software Vendor (ISV) atau ISP yang memanfaatkan Internet sebagai sarana penyampaian sehingga program aplikasinya bias berfungsi.


Saat ini telah banyak digunakan sebagai solusi integrasi sistem dengan lebih efisien, efisien disisi biaya dan maintenancenya. Di indonesia sendiri sudah banyak yang memanfaatkan ASP Kantor pajak Wajib Pajak dapat menyampaikan SPT secara elektronik (e-Filling), Cargo Garuda Indonesiadan sebagainya.
Ada banyak keuntungan dengan menggunakan ASP, diantaranya ;
1. Sangat membantu bagi perusahaan SOHO dan yang baru startup, sangat terasa keuntungannya dengan rendahnya biaya instalasi, dan waktu yang pendek dalam implementasi
2. Membayar sesuai dengan yang kita gunakan, hal ini akan membuat lebih murah dalam layanan yang diinginkan user
3. Dengan Model ini kita dapat mengeliminasi kebutuhan akan infrasturktur IT yang mahal dan rumit.

Era Cloud Computing
Perkembangan IT saat ini menuju dengan konsep-kosenp social networkingnya, openess, share, colaborations, mobile, easy maintenance, one click, terdistribusi / tersebar, scalability, Concurency dan Transparan, Saat ini terdapat trend teknologi yang masih terus digali dalam penelitian-penelitian para pakar IT di dunia, yaitu Cloud Computing. Akses data dari mana saja dan menggunakan perangkat fixed atau mobile device menggunakan internet cloud sebagai tempat menyimpan data, applications dan lainnya yang dapat dengan mudah mengambil data, download applikasi dan berpindah ke cloud lainnya, hal ini memungkinkan kita dapatmemberikan layanan aplikasi secara mobile di masa depan. Trend ini akan memberikan banyak keuntungan baik dari sisi pemberi layanan (provider) atau dari sisi user.

Trend saat ini adalah dapat memberikan berbagai macam layanan secara teristribusi dan pararel secara remote dan dapat berjalan di berbagai device, dan teknologinya dapat dilihat dari berbagai macam teknologi yang digunakan dari proses informasu yang dilakukan secara otsourching sampai dengan penggunaan eksternal data center [3]. Cloud Computing merupakan model yang memungkinkan dapat mendukung layanan yang disebut ”Everything-as-a-service” (XaaS) [6]. Dengan demikian dapat mengintegrasikan virtualized physical sources, virtualized infrastructure, seperti juga sebaik virtualized middleware platform dan aplikasi bisnis yang dibuat untuk pelanggan didalam cloud tersebut.

Ada beberapa keuntungan yang dapat dilihat dari perkembangan Cloud Computing ini, seperti :
1.   Lebih efisien karena menggunakan anggaran yang rendah untuk sumber daya
2.  Membuat lebih eglity, dengan mudah dapat berorientasi pada profit dan perkembangan yang cepat
3.  Membuat operasional dan manajemen lebih mudah, dimungkinkan karena system pribadi atau perusahaan yang terkoneksi dalam satu cloud dapat dimonitor dan diatur dengan mudah
4.   Menjadikan koloborasi yang terpecaya dan lebih ramping
5.  Membantu dalam menekan biaya operasi biaya modal pada saat kita meningkatkan reliability dan kritikal sistem informasi yang kita bangun.

Secara umum Cloud Computing dibagi menjadi tiga segmen utama, yaitu : “Aplikasi”,”platform”, dan “infrastruktur” Setiap segmen melayani tujuan yang berbeda dan menawarkan produk yang berbeda untuk bisnis dan individu di seluruh dunia. Pada bulan Juni 2009, sebuah studi yang dilakukan oleh VersionOne menemukan bahwa 41% dari senior profesional TI benar-benar tidak tahu apa komputasi awan dan dua-pertiga dari profesional keuangan senior bingung dengan konsep ini,menyoroti sifat teknologi masa kini . Pada September 2009, sebuah Kelompok studi Aberdeen menemukan bahwa perusahaan disiplin mencapai rata-rata pengurangan 18% dalam anggaran TI mereka dari komputasi awan dan pengurangan 16% daya biaya data center.



Struktur Cloud Computing

Terdapat tiga komponen platform = computer desktop, mobile devices dan cloud, dengan memperhatikan masalah kemudahan dan keamanan, dimungkinkan dapat dengan mudah para user untuk pindah dari satu aplikasi ke aplikasi lain dimana saja.

Software as a services (SaaS): perkembangan dari web 2.0, perpaduan dengan online application SAAS, Dapat memungkinkan kolaborasi dan integrasi manajemen tools semua devices.

Interkoneksi Sel
Grid computing muncul untuk menyatukan banyak CPU yang bekerja secar pararel untuk menyelesaikan suatu pekerjaan tertentu. Integrasi CPU ini bias saja dilakukan dalam sebuah network lokal atau internetworking yang tersebar di seluruh dunia. Interkoneksi ini membentuk cel-cel yang saling terintegrasi secara private atau public atau kedua-duanya.


Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS),Human as a Service (HaaS)

CONTOH PENGGUNAKAN CLOUD COMPUTING

Contoh aplikasi cloud computing yang sudah terimplementasi, antara lain 
- Salesforce.com (CRM) 
- Google (GOOG) 
- NetSuite (N) 
- Cordys 
- Taleo (TLEO) 
- Concur Technologies (CNQR)

    Salesforce.com
    Contoh aplikasi berbasis cloud computing adalah salesforce.com, Google Docs. salesforce.com adalah aplikasi Customer Relationship Management (CRM) berbasis software as services, dimana kita bisa mengakses aplikasi bisnis: kontak, produk, sales tracking, dashboard, dll.


    Google Docs adalah aplikasi word processor, spreadsheet, presentasi semacam Microsoft Office, yang berbasis di server. Terintegrasi dengan Google Mail, file tersimpan dan dapat di proses dari internet.

    Yang menyediakan software berbasis lisensi :
    Berikut ini perusahaan telah membentuk diri sebagai perangkat lunak berbasis lisensi. Perusahaan-perusahaan ini menjual lisensi kepada pengguna mereka, yang kemudian menjalankan perangkat lunak dari pada premis servers, antara lain : 
    - SAP AG (SAP) 
    - Oracle (ORCL)  
    - Blackbaud (BLKB)  
    - Lawson Software (LWSN)  
    - Blackboard (BBBB)

      Platform
      Banyak perusahaan yang dimulai dengan memberikan layanan aplikasi telah mengembangkan platform layanan juga. Segmen platform cloud computing mengacu pada produk yang digunakan untuk menyebarkan internet. NetSuite, Amazon, Google, dan Microsoft juga telah mengembangkan platform yang memungkinkan pengguna untuk mengakses aplikasi dari server terpusat.

      Pada bulan Juli 2008, HP , Yahoo! (Yahoo) , dan Intel (INTC) mengumumkan sebuah proyek penelitian bersama komputasi awan disebut Cloud Computing Test Bed. Perusahaan-perusahaan ini secara bersama-sama merancang dan memproduksi berdasarkan pengujian internet memanfaatkan perangkat keras HP dan prosesor Intel.

      Platform Aktif - Perusahaan-perusahaan berikut adalah beberapa yang telah mengembangkan platform yang memungkinkan Client untuk mengakses aplikasi dari server terpusat menggunakan internet. Di sebelah masing-masing perusahaan adalah nama platform mereka, sebagai berikut : 
      - Google (GOOG) – Apps Engine  
      - Amazon.com (AMZN) – EC2  
      - Microsoft (MSFT) – Windows Azure 
      - SAVVIS (SVVS) – Symphony VPDC  
      - Terremark Worldwide (TMRK) – The Enterprise Cloud  
      - Salesforce.com (CRM) – Force.com  
      - NetSuite (N) – Suiteflex  
      - Rackspace Cloud – cloudservers, cloudsites, cloudfiles  
      - Metrisoft – Metrisoft SaaS Platform  
      - SUN Oracle direct link  
      - Cordys Process Factory – The Enterprise Cloud Platform

        Segmen terakhir dalam komputasi awan, yang dikenal sebagai infrastruktur, inti dari konsep keseluruhan Cloud Computing. Infrastruktur vendor lingkungan (seperti Google) yang memungkinkan pengguna untuk membangun aplikasi. Awan penyimpanan, seperti Amazon S3, juga dianggap sebagai bagian dari segmen 

        infrastruktur.
        Infrasuktrur Utama Vendor – Di bawah ini adalah perusahaan yang menyediakan jasa infrastruktur, antara lain: 
        - Google (GOOG) – Managed hosting, development environment  
        - International Business Machines (IBM) – Managed hosting  
        - SAVVIS (SVVS) – Managed hosting & cloud computing 
        - Terremark Worldwide (TMRK) – Managed hosting  
        - Amazon.com (AMZN) – Cloud storage  
        - Rackspace Hosting (rax) – Managed hosting & cloud computing

          Apa yang harus di lakukan untuk menuju teknologi Cloud Computing?
          Pergeseran paradigma komputasi awan akan mempengaruhi banyak berbeda sub-kategori di industri komputer seperti perusahaan perangkat lunak, penyedia layanan internet dan produsen perangkat keras. Meskipun relatif mudah untuk melihat bagaimana perangkat lunak utama dan perusahaan internet akan dipengaruhi oleh seperti pergeseran, lebih sulit untuk memprediksi bagaimana perusahaan-perusahaan di sektor internet dan hardware akan terpengaruh.


          Keuntungan untuk siapa?
          Konsultasi / Software / Hardware dan perusahaan Jasa yang dapat keuntungan dari pergeseran ke arah komputasi awan meliputi: 
          - IBM  
          - HP

            Produsen software yang bisa memperoleh keuntungan dari pergeseran ke arah komputasi awan meliputi: 
            - NetSuite  
            - Salesforce.com CRM)  
            - Taleo (TLEO)  
            - RightNow Technologies (RNOW)  
            - Concur Technologies (CNQR)  
            - Omniture (OMTR)  
            - Microsoft (MSFT)  
            - Hyperic  
            - Quest Software (QSFT)  
            - Walt Disney Company (DIS)

              Perusahaan berbasis Internet yang dapat keuntungan dari pergeseran ke arah komputasi awan meliputi: 
              - Amazon.com (AMZN) 
              - Yahoo! (yhoo)  
              - Microsoft (MSFT)  
              - Google (GOOG)  
              - Cisco Systems (CSCO)
                Perusahaan konsultan yang bisa memperoleh hasil dari pergeseran ke arah komputasi awan meliputi:
                - Cloud Technology Partners  
                - SAVVIS (SVVS)

                  Kerugian untuk siapa?
                  produsen perangkat lunak yang dapat memiliki beberapa mengejar yang harus dilakukan jika komputasi awan akhirnya menang antara lain meliputi: 
                  - Oracle (ORCL)  
                  - SAP AG (SAP)  
                  - Blackbaud (BLKB)  
                  - Lawson Software (LWSN)

                    Inti nya teknologi ini di perkenalkan agar memudahkan perusahaan agar dalam pengeluaran biaya dapat menurun dan lebih efisien dalam  pemeliharan perangkat dan juga biaya penyewaan perangkat. mungkin cukup sampai di sini untuk pengenalan Cloud Computing, namun masih banyak konsep cloud computing yang belum kita kupas secara mendalam dan tentu nya bisa mengetahui bahwa teknologi akan terus di kembangkan seiring waktu berjalan.

                    Sabtu, 19 Februari 2011

                    Indonesia Addresses Data Center Consolidation

                    Indonesia’s government is in a unique position to take advantage of both introducing new data center and virtualization technology, as well as deploying a consolidated, distributed data center infrastructure that would bring the additional benefit of strong disaster recovery capabilities.

                    Much like the problems identified by Minister Tanner in Australia, today many Indonesian government organizations – and commercial companies – operate ICT infrastructure without structure or standards. “We cannot add additional services in our data center,” mentioned one IT manager interviewed recently in a data center audit. “If our users need additional applications, we direct them to buy their own server and plug it in under their desk. We don’t have the electricity in our data center to drive new applications and hardware, so our IT organization will now focus only on LAN/WAN connectivity.”

                    While all IT managers understand disaster recovery planning and business continuity is essential, few have brought DR from PowerPoint to reality, putting much organization data on individual servers, laptops, and desktop computers. All at risk for theft or loss/failure of single disk systems.



                    That is all changing. Commercial data centers are being built around the country by companies such as PT Indosat, PT Telekom, and other private companies. With the Palapa national fiber ring nearing completion, all main islands within the Indonesian archipelago are connected with diverse fiber optic backbone capacity, and additional international submarine cables are either planned or in progress to Australia, Hong Kong, Singapore, and other communication hubs.

                    For organizations currently supporting closet data centers, or local servers facing the public Internet for eCommerce or eGovernment applications, data centers such as the Cyber Tower in Jakarta offer both commercial data center space, as well as supporting interconnections for carriers – including the Indonesia Internet Exchange (IIX), in a similar model as One Wilshire, The Westin Building, or 151 Front in Toronto. Ample space for outsourcing data center infrastructure (particularly for companies with Internet-facing applications), as well as power, cooling, and management for internal infrastructure outsourcing.

                    The challenge, as with most other countries, is to convince ICT managers that it is in their company or organization’s interest to give up the server. Rather than focus their energy on issues such as “control,” “independence (or autonomous operations),” and avoiding the pain of “workforce retraining and reorganization,” ICT managers should consider the benefits outsourcing their physical infrastructure into a data center, and further consider the additional benefits of virtualization and public/enterprise cloud computing.
                    Companies such as VMWare, AGIT, and Oracle are offering cloud computing consulting and development in Indonesia, and the topic is rapidly gaining momentum in publications and discussions within both the professional IT community, as well as with CFOs and government planning agencies.

                    It makes sense. As in cloud computing initiatives being driven by the US and other governments, not only consolidating data centers, but also consolidating IT compute resources and storage, makes a lot of sense. Particularly if the government has difficulty standardizing or writing web services to share data. Add a distributed cloud processing model, where two or more data centers with cloud infrastructure are interconnected, and we can now start to drive down recovery time and point objectives close to zero.

                    Not just for government users, but a company located in Jakarta is able to develop a disaster recovery plan, simply backing up critical data in a remote location, such as IDC Batam (part of the IDC Indonesia group). As an example, the IDC Indonesia group operates 4 data centers located in geographically separate parts of the country, and all are interconnected.

                    While this does not support all zero recovery time objectives, it does allow companies to lease a cabinet or suite in a commercial data center, and at a minimum install disk systems adequate to meet their critical data restoral needs. It also opens up decent data center collocation space for emerging cloud service and infrastructure providers, all without the burden of legacy systems to refresh.

                    In a land of volcanoes, typhoons, earthquakes, and man-made disasters Indonesia has a special need for good disaster recovery planning. Through an effort to consolidate organization data centers, the introduction of cloud services in commercial and government markets, and high capacity interconnections between carriers and data centers, the basic elements needed to move forward in Indonesia are now in place.

                    source : http://cloudcomputing.ulitzer.com/

                    Selasa, 25 Januari 2011

                    Top ten data center trends of 2011


                    X86 everywhere
                    The data center has always been a heterogeneous place, but not for long. Slowly but surely, the variety of microprocessors that used to characterize our compute centers is giving way to homogenous hordes of x86 processors — mostly from Intel, with a smattering of AMD thrown in for good measure. In and of itself, x86’s increased presence is nothing new — x86 boxes have long outsold Unix and mainframes on a units-shipped basis. But in 2010, x86 servers represented the majority of server revenue as a whole, estimated by IDC at 66.1% in Q310. Expect that trend to continue, not abate.

                    The waning days of Unix
                    The corrolary to x86’s increased data center dominance is the decline of Unix, which data center buyers demoted to a legacy platform in 2010. Oracle, with its purchase of Sun Microsystems in 2009, appears to be hastening Unix’s demise, driving data center managers away with product cancellations and predatory support pricing, although other reports show Oracle/Sun sales holding steady.

                    Don’t just virtualize, automate!
                    Of course, part of the reason for x86’s increased data center dominance is virtualization, which has arguably been the defining data center trend of the last decade. But there are signs that all the virtualization hustle and bustle is coming to a close, as IT departments come to the end of the list of workloads they are willing to virtualize. With the bulk of the raw migration work behind them, many IT organizations want to build on the foundational layer they have built, and will introduce automation, a.k.a. private cloud computing, on top of their virtual infrastructure. The hope is to minimize manual tasks such as ensuring compliance, taking inventory, running reports, provisioning new workloads and testing disaster recovery plans. But while it all sounds good on paper, early adopters say they’ve had trouble getting buy-in for automation and private cloud outside the confines of IT.

                    Storage, data networks converge
                    Take a look at the average enterprise server, and hanging out the back you’ll find cables going to a handful of Gigabit Ethernet network interface cards (NICs) and a couple of Fibre Channel host bus adapters (HBAs) going to a SAN. That’s all changing with the availability of 10 Gigabit Ethernet (GbE), as data center managers take advantage of the 10 GbE’s superior bandwidth plus new network protocols to transfer both data and storage traffic over a single, tidy link. But while converged networks are the topic du jour for network and storage vendors, plenty of hurdles remain. Most existing storage systems, for one, don’t natively attach to Ethernet, requiring the use of intermediary bridging equipment. Further, most IT organizations aren’t set up for network and storage personnel to work together. An intermediary step toward converged networks may be to take advantage of existing IP storage technologies, like tried-and-true NAS and iSCSI.

                    Storage is exploding, still
                    File this under “the more things change, the more they stay the same.” IT professionals continue to grapple with modern applications’ seemingly limitless ability to generate data — and regulators’ unwavering demand that it be stored ad infinitum. In fact, Gartner estimates that storage capacity in the data center will grow 800% this year. Making matters worse is virtualization, which requires that storage be networked to enable live migration. To get a handle on out-of-control storage growth, data center managers must explore technologies like archiving and deduplication, or risk drowning their data centers — and budgets — in a sea of storage.

                    DCIM tools on the horizon
                    One of the most pressing concerns for IT managers is extending the life of their current data centers by optimizing power and cooling efficiency. As systems become more complex and variable, XL spreadsheets or Visio diagrams may not be enough to track data center infrastructure components. The entrenched power and cooling equipment vendors launched data center infrastructure management (DCIM) tools that can help data center pros avoid hot spots, or over-provisioning equipment, and other facilities challenges. But third-party vendors have jumped into the fray as well, with sophisticated tools that render data center facilities in 3-D, and include auto-discovery functions that track moves, additons and changes to facility infrastructure, as well as some tools that can even make adjustments to server power draw to improve system efficiency. These are still early days for DCIM, and IT pros are kicking the tires and looking for more standardization, but some companies may not be able to wait and will need more visibility into their facilities infrastructure now.

                    Colocation data centers shift focus to cloud computing
                    Last year, colocation data center providers targeted large enterprise data centers. Many companies ran out of data center space and rather than building new facilities, they turned to lease retail-priced raised-floor facilities. In a tight capital market, laying out tens of millions of dollars for a new data center was a hard pill to swallow. This year, colos are chasing the dollars into the cloud. The jury is out on whether cloud computing will save IT managers money, or make cloud providers rich. But the colo companies are poised to cash in. Cloud, Infrastructure as a Service, Platform as a Service and Software as a Service providers need enterprise-class data center infrastructure; they need to be geographically close to their markets to minimize latency; they need access to diverse networks; and these companies need to scale quickly. The smart colos are setting up shop to charge cloud providers a premium.

                    IT operations deploy more core systems management functions as SaaS
                    IT cost analysis, help desk, IT service management, even data center infrastructure monitoring — there are very few systems management software tools that can’t be handled as a service. SalesForce.com and ServiceNow have done a great job providing IT departments the application functionality they need, without the upgrade and maintenance headaches, and even the Big Four are following down that path now, delivering their tools via Software as a Service (SaaS) model. Increasingly, companies are turning to SaaS models because the tools are easier to purchase and deploy, despite the potential for overall higher prices over time.

                    Data center containers, or pods, take off
                    Around five years ago, everybody had a good laugh over the Sun Microsystems Blackbox — a data center Winnebago of sorts. Companies could put them out on their front lawns on cement cinder blocks. Then Microsoft built out a whole data center trailer park and proved the concept could work in specific cases, like giant Web server farm build-outs. But the average data center pro isn’t buying servers in semi-trailer-sized increments, and the idea fizzled. Until now. The second generation of data center containers is smaller and better engineered than their predecessors. SGI’s Patrick Yantz was a part of the Microsoft team that built out the first major trailer installation, and learned from that experience. The SGI’s latest ICE Cube Expandable Modular Data Center is a great example of what’s possible going forward with prefabricated data center facilities.

                    Cisco UCS grabs mega market share, inspires more converged infrastructure products
                    Cisco fired the first shot, but now everybody is jumping to the fight for your data center dollars. Some IT managers are calling these converged systems the new mainframes. They comprise servers, storage, networking, operating systems, hypervisor, management tools and middleware all pre-integrated, and each layer of the stack is optimized with the vendor’s secret sauce. Examples include the Cisco UCS, Oracle’s Exadata and Exalogic machines, HP’s Bladesystem Matrix and VCE’s vBlock. These machines can put up impressive performance numbers, and make vendor management simpler, but analysts and IT managers remain wary of vendor lock-in. Cisco has the most to gain in this new market for converged hardware platforms, with installations in nearly every data center around the world.

                    By Alex Barrett and Matt Stansberry for Search Data Center  [searchdatacenter.techtarget.com]