IBM Big Fix Deployment (architecture)

Basic deployment

This is a very simplified deployment that points out the basic hierarchy and the ports used to connect the components.

Big Fix Basic Deployment

Big Fix Basic Deployment

Note the following about the diagram:

  • Port 80 is used to collect Fixlet messages over the Internet from Fixlet providers such as IBM.
  • A dedicated port (defaulting to 52311) is used for HTTP communications between servers, relays, and Clients.
  • A dedicated port (defaulting to 52311) is used for HTTPS communications between servers and Consoles.
  • Relays are used to share the server load. This diagram only shows two relays, but you can use dozens or even hundreds of relays in a similar flat hierarchy. Typically a Relay is deployed for every 500-1,000 computers.
  • The BigFix relays can also take advantage of a UDP port to alert the Clients about updates, but this is not strictly necessary.
  • The BigFix Clients are typically PCs or Workstations, but can include other servers, dockable laptops, and more. Any device that can benefit from patches and updates is a candidate to include in the deployment.

BigFix has far greater flexibility and potential than this simple case suggests. It is capable of overseeing hundreds of thousands of computers, even if they are spread out around the world. The next scenarios build on this basic deployment.

Main Office with Fast-WAN Satellites

This configuration is common in many universities, government organizations, and smaller companies with only a few geographical locations. This type of deployment is relatively easy to set up and administer because there are no (or very few) slow WAN pipes to consider.

Note the following about the diagram:

  • In this configuration, the relays are used both to relieve the server and to distribute the communications, optimizing the bandwidth.
  • This scenario has large WAN pipes, so office relays can communicate directly with the main server. A thin WAN could force a change in the layout of the relays (see the scenarios above and below).
  • The more relays in the environment, the faster the downloads and response rates.
  • Because of the nature of this network, when the clients are set to Automatically Locate Best relay, many of the relays are the same distance away. In this scenario, the clients automatically load-balance themselves amongst all the relays that are nearby.
  • For this high-speed LAN, a relatively flat hierarchy is recommended, with all relays reporting directly to the main server. Any extra levels in the hierarchy would only introduce unnecessary latency. However, if there were over 50-100 relays in this environment, another level of relays should be considered.


Disaster Server Architecture

Companies with sensitive or high availability needs might want to deploy multiple, fully-redundant servers to maintain continuous operation even in the event of serious disruptions. Multiple servers also help to distribute the load and create a more efficient deployment. Here is a simple diagram of how multiple servers might be set up to provide redundancy:

In case of a failover, the specific configured relays automatically find the backup server and reconnect the network. For more information about the relay configuration see Configuring relay failover.

Note the following about the diagram:

  • The BigFix servers are connected by a fast WAN, allowing them to synchronize several times per hour.
  • The servers need both an ODBC and an HTTP link to operate and replicate properly.
  • There is a primary server with an ID of 0 (zero). It is the first server that you install, and it is the default server for running the BigFix Administration Tool.
  • For the sake of clarity, this is a minimal configuration. A more realistic deployment would have a top-level relay and other WAN connections to regional offices.
  • The BigFix servers and relays are configured so that control can be automatically routed around a server outage (planned or otherwise), and upon failover reconnection, the databases are automatically merged.
  • The BigFix servers communicate on a regular schedule to replicate their data. You can review the current status and adjust the replication interval through BigFix Administration > Replication. For the best possible performance, these pipes should be FAT.
  • This diagram only shows two servers, but the same basic architecture would apply to each additional server. With multiple servers, a shortest-path algorithm is used to guide the replication.
  • When an outage or other problem causes a network split, it is possible for a custom Fixlet or a retrieved property to be modified independently on both sides of the split. When the network is reconnected on failover, precedence goes to the version on the server with the lowest server ID.

Efficient relay setup

To increase efficiency and reduce latency, this company has set up a hierarchy of relays to help relieve the server load. Each relay they add takes an extra burden off the server for both patch downloads and data uploads. Setting up relays is easy, and the clients can be set to automatically find the closest relay, further simplifying administration.

Note the following about the diagram:

  • There is a dedicated server computer known as the Top-Level relay that is used to take the load off the server computer.
  • All relays are manually configured to point to either the top level relay or to another relay that is closer. The general rule for configuring relays is that you want as few levels as possible to the relays unless there is a bandwidth bottleneck. Communications over thin pipes should be relay to relay. The top-level relay relieves the server, and the secondary relay allows a single download to be distributed over hundreds of clients.
  • There is a relay in the DMZ set up with a special trust relationship with the server. This relay allows clients in the DMZ or on the public Internet to be managed by BigFix. The DMZ places a security firewall between the relay and the set of home computers and laptops reporting in from the Internet.
  • This diagram shows a single relay in the large regional office. However, for offices with more than a few hundred clients, there will typically be multiple relays to effectively distribute the load.
  • As a general rule, you should deploy at least one relay per 500-1000 clients to maximize the efficiency of the relay. For more information see the article on relays at the BigFix support site.

Hub and spoke

This scenario involves a main data center, a small number of large regional offices, and many small regional offices. This configuration is common in large international organizations. The IBM BigFix clients are installed on computers in offices all around the world. Many of these locations have slow WAN connections (8 kbps-512 kbps), but there are many offices with faster WAN connections (1mbps-45mbps).

Often these locations are configured in a hub-and-spoke arrangement. This scenario builds on the previous one, but the hub-and-spoke configuration permits more levels in the relay hierarchy.

Note the following about the diagram:

  • In this scenario, the relays are carefully deployed at the proper junctions within the WAN to optimize bandwidth. Poor placement of relays can adversely impact your network performance.
  • It is vital that at least one relay is installed in every location with a slow WAN connection. Often a company already has a server in just such a location, acting as a file server, print server, AV distribution server, SMS distribution server or domain controller, or any other computer. The BigFix relay is usually installed on these existing computers.
  • To provide redundancy in a typical office, more than one relay should be installed. If a relay fails for any reason (powered down, disconnected from the network, and so on.), its attached clients can then automatically switch over to a different relay. A redundant relay is less important in very small offices because fewer computers are affected by the failure of a relay.
  • When the clients are set to Automatically Locate Best Relay, they will choose the closest one. If any relay fails, the clients automatically seek out another relay. You should monitor the relay configuration after the initial automated setup (and periodically after that) to ensure that the clients are pointing to appropriate locations. Talk to your support technician for more details about how to protect against overloading WAN pipes with BigFix data.
  • Bandwidth throttling at the relay level is very helpful in this configuration. The BigFix relays are set up to download slowly across the WAN pipes so as not to saturate the slow links. For more information see the article on throttling at the BigFix support site.
  • Instead of pointing to the main server, the relays are configured to point to the top level relay. This frees up the server to couple more tightly to the console and improves reporting efficiency.

The BigFix relays are configured to manually create the optimal hierarchy. The hierarchy has three levels (from the top down):

  1. The top-level relay that connects directly to the server.
  2. The regional office relays that connect to the top-level relay.
  3. Multiple branch office relays that connect to specified regional office relays.

Remote Citrix / Terminal Services Configuration

Although BigFix can efficiently deliver content even over slow connections, the console itself is data-intensive and can overwhelm a link slower than 256 kbps. Adding more Clients further increases the lag time.

However, you can access the console remotely from a Citrix, Windows Terminal Server, VNC or Dameware-style presentation server and realize excellent performance. Here is what this configuration looks like:

Note the following about the diagram:

  • In the main office, the console is set up on a computer that is close to the server for fast data collection. This is your Presentation server.
  • You must create user accounts for each remote user. These users can then access the console quickly because the time-critical data loading is done at the main office over a fast link.
  • Your remote connection can be over HTTPS to improve security.
  • Note that running a console from a Presentation server containing the private key is inherently less secure than if the key is stored on a removable drive.
  • You might be able to benefit from load-balancing software to spread the remote accesses across multiple servers.
  • The main bottleneck for a console running on Citrix is memory size. If the console runs out of memory, its performance decreases sharply. A good technique to determine the memory requirement is to open the console as a Master Operator. Check the memory used: this indicates the maximum memory requirement per user. Then log in as a typical operator and use this as your average memory requirement. If your Citrix server can support all concurrent users with the maximum memory then a single box suffices. If not, then use the average memory requirement per user to determine how many extra Citrix servers you might need.
  • The second constraint is CPU power. During refreshes, the console works best with a full CPU core. This means the Presentation server will be optimized with one CPU core running the console for each concurrent user.
  • The final concern is disk space for the console cache. You can understand the size of the cache by looking at an example on your local computer: C:\Documents and Settings\<USERNAME>\Local Settings\Application Data\BigFix\Enterprise Console\BES_bfenterprise. There should be enough disk space to provide one cache file for each console operator.



Crypto-ransomware is one of the most dangerous types of malware ever created. The consequences of it can be very severe. We believe there are ways to protect your organization against this type of threat. 


  1. Back-up is a must.Upon the infection of your corporate PCs, the ransomware is likely to start encrypting files that are required for the daily work of your company. If it is technically impossible to back-up all the files you have in the corporate network, choose the most critical (accounting documents, clients’ data, legal documents etc.), isolate them and back-up regularly.


  2. Use a reliable, corporate-grade security solution and don’t switch off its advanced features, as these enable it to catch unknown threats.


  3. Undertake regular patch management.


  4. Educate your personnel,very often the ransomware infection happens due to a lack of knowledge about common cyberthreats and the methods criminals use to infect their victims.


  5. Avoid paying a ransom and report the attack to police.

 Source from kaspersky endpoint security

QlikView Displaying Data Population Pyramid

Hello sobat bloggers, dh lama tak bersua ni, update blog dikit ahh, hehe.. kali ini saya mw bahas dikit mengenai Qlikview application ni, tools yang cukup powerfull untuk create report. sebenernya sih saya juga masih belajar mengenai tools ini, tp gpplah sharing2 kali aja ada yang mw nambahin atau ngasih masukan mengenai BI Tools satu ini..

pokok bahasannya seputar displaying data populasi pyramid.

sebelum masuk ke materi sobat blogger bisa unduh material trainingnya dulu di link berikut :

Material Document

dan pastikan di unzip di folder yang sama, instruksi dari websitenya sih gitu😛

lalu lalu lalu, buka qlikview applikasinya dong pastinya, dan klik qvw dokumennya dari materi training tadi.

pasti hasilnya nihil deh alias zonk, hal ini karena pada saat qlikview execute scriptnya data source excel path locationnya tidak ketemu,

berikut scriptnya :

[US Population]:
LOAD Year,
[Age range],
[D:\System Development\QLIKVIEW\Tutorial\Displaying Data\DisplayingData-PopulationPyramid//*path dari data roucenya dalam hal ini excel dokumen\//*nama file yang akan di grep datanya di qlikviewUSPopulation.xlsx]
(ooxml, embedded labels, table is [US Population 1975-2011]);

setelah itu kita cek data modelnya dengan menggunakan CTRL + T, kemudian klik kanan di tablenya dan pilih preview.

display visualisasi populasi dalam bentuk piramida

berikut step by stepnya :

  1. klik kanan di kanvas qlikview dan pilih new sheet object –> chart lalu next
  2. pilih chart tipe lalu next
  3. masukan dimensi yang diinginkan dalam hal ini age range lalu next
  4. pada tab expression tambahkan expression untuk male and female dengan script berikut :
    • untuk male    : -Sum({$<sex={‘female’}>}Population)
    • untuk female : Sum({$<sex={‘female’}>}Population)
    • kemudian pilih next
  5. pada tab berikutnya untuk load ordernya dibuat reverse lalu next
  6. pada tab berikutnya subtype pilih yang stacked kemudian next
  7. pada tab presentasi bar distance & cluster distance diisi dengan “0”
  8. pada tab axes widthnya diisi 1pt kemudian next
  9. pada tab number diubah number format settingnya ke number untuk male & female, lalu next
  10. pada tab caption beri nama sesuai dengan keterangan report dalam hal ini populasi manusia.

setelah semua step diatas dilakukan maka hasilnya akan terlihat seperti dibawah ini :





hmm ada mainan baru ni, iseng2 ahh ngoprek.

yuk ah intip dulu dikit, pada pembahasan kali ini lebih mengarah ke Introduction dulu pastinya.

QlikView adalah sebuah tools yang di develop oleh QlikTech pada tahun 1996, pada awalnya QlikView disebut dengan “Quik View” yang mana Quik disini berarti Quality, Understanding, Interaction & Knowledge.

QlikTech sendiri didirikan di 1993 di swedia, dan headquarternya di philadelphia. akan tetapi R&D Departemennya masih di swedia,saat ini QlikView office telah memiliki 1400 karyawan dan 28000 customer yang tersebar di 100 negara.

Qlik management team sendiri rata-rata berasal dari BI development industri yang cukup memiliki nama seperti SAP, Oracle, Siebel, etc.

source visit untuk informasi lebih detailnya.

qlikview bukan Business intelegence tools, akan tetapi business discovery tool. fungsinya adalah memaintain perbedaan dari BI Tools lainnya, karena fleksibilitas & menggunakan teknology in-memory associative processing.

sekilas info in-memory technology di qlikview ini berfungsi untuk mencegah ketergantungan BI Tools terhadap koneksi ke Database yang nantinya dapat berpengaruh ke performance database tersebut, technology in memory di qlikview adalah mengambil data dari datasource (dalam hal ini database) kemudian di store di data store qlikview sendiri, jadi apabila kita ingin menampilkan report based on data terakhir collect tidak perlu langsung connect ke sisi database.

contoh penampakannya sebagai berikut :

QlikView Dashboard

Mengatur Database Permission

hi all, akhirnya dapat kesempatan untuk menulis / update blog semi ga keurus ini lagi. to the point aja dehh pada pembahasan kali ini masih seputar microsoft SQL Server Security konsep, dan pembahasan kali ini mengacu kepada mengatur database permission.

berikut adalah sample query dari grant access :

  • Statement Permission Govern DDL
    • GRANT CREATE TABLE to db_dev; #maksud dari statement ini adalah memberikan izin melakukan create table pada database db_dev
    • GRANT ALTER ANY ROLE , ALTER ANY USER to sales_admin; #statement ini adalah memberikan hak akses melakukan perubahan role ke sales_admin;


  • Object Permission Govern DDL & DML
    • GRANT ALTER APPLICATION ROLE::sales_supervisor to sales admin #mengambil hak akses dari sales supervisor untuk digunakan oleh sales_admin;
    • GRANT SELECT ON OBJECT::dbo.ProductCategory to product_reader; #memberikan hak akses menggunakan select statement pada object dbo.productcategory ke product_reader;
    • GRANT SELECT on dbo.product to product_reader #memberikan akses select statement dari dbo.product ke product_reader;

Design Database SQL Server Security

Assalammualaykum Wr. Wb,

udah lumayan lama juga ga nulis di blog nihh, sekarang saya akan coba membahas mengenai security di sisi database SQL Server, sepertinya judulnya security (keamanan) adalah aspek penting dalam job sebagai Database Administrator (DBA), semua ini diperuntuk untuk confidential data itu sendiri.

security secara garis besar dibagi 3:

– securables meliputi aspek server, database, object database contains
– principals adalah individu ataupun grup yang diperbolehkan secara akses untuk mengakses SQL Server
– permissions adalah hak akses untuk principal yang diberikan untuk keperluan melakukan operasi CRUD (Create Retrieve Update Delete)

SQL Server Securables Skema :

SQL Server Securables

SQL Server Principles Skema :

SQL Server Principles

Login dan Akun

ada tiga lapisan yang digunakan untuk mengakses konten (data) :

1. SQL Server Access -a adalah sebuah login yang dapat digunakan oleh security principal
2. Database Access – a adalah database user yang termapping oleh SQL Login dan diberikan akses ke salah satu database
3. Object Access – Permissions dapat di applikasikan di object level untuk dapat memprovide akses terhadap object yang berada di Database

SQL Server Permission :

berfungsi untuk memberikan permission kepada user

berfungsi untuk menolak hak akses user terhadap object yang terdapat di SQL Server

berfungsi meneteralkan Grant & Deny function.

Memanage Server-Level Security

trusted server application security model
role model : user mengakses applikasi => applikasi menggunakan credential tersendiri => sql server mengacu kepada credential dari sisi applikasi.

Impersonation/Delegation Security Model
role model : user mengakses applikasi => applikasi menirukan user => SQL serve akses mengacu kepada identitas user

SQL Server Authentication opsi

authentikasi adalah proses verifikasi apakah identitas yang digunakan valid atau tidak. pada proses authentication menggunakan 2 metode

  • windows authentication : hanya authentication oleh windows yang dapat login / connect
  • mixed authentication : user login menggunakan sql server credential yang telah dibuat sebelumnya

Database ownership
adalah proses mapping credential tertentu ke database tertentu,

Database Normalisasi

Hai Sobat Blogger,

pada pembahasan kali ini saya akan sedikit membahas mengenai proses normalisasi pada database, sebelum membahas lebih jauh tentang proses normalisasi pada database ada baiknya kita memahami dahulu normalisasi proses secara definisi.

kalau mendengar kata normalisasi biasanya yang terlintas dipikiran kita adalah bersih-bersih, contoh : normalisasi kali ciliwung (proses pembersihan kali ciliwung dari sampah2 yang menyebabkan tersumbatnya kali dan mengakibatkan kali tersebut bekerja tidak sesuai fungsinya), begitu juga dengan database, proses normalisasi database adalah sebuah proses yang mengorganisir data pada database, pada proses normalisasi mengincludekan juga create table dan proses relasi antar table, proses ini dapat membantu juga mengeliminasi data yang rangkap (redundant).

proses normalisasi sendiri terbagi 5 bentuk yaitu :
– 1NF : eliminasi perulangan pada group
– 2NF : eliminasi data yang redundant
– 3NF : eliminasi kolom yang tidak bergantung pada Key
– 4NF : isolasi independent multiple relationships
– 5NF : isolasi semantic relationships

5 bentuk diatas adalah bentuk umum pada normalisasi, adapun pada pembahasan kali ini hanya akan membahas sampai bentuk ke 3 saja, karena kebanyakan pengguna DB pada umumnya melakukan bentuk normalisasi hanya sampai bentuk ke 3 ini.

First Normal Form (1NF)

proses yang dilakukan untuk mendapatkan bentuk pertama normalisasi ini adalah :

– Eliminasi group yang berulang pada table individual
– Membuat table terpisah pada 1 set data yang berelasi
– identifikasi setiap set data dengan menggunakan primary key

note : jangan menggunakan beberapa field pada table individual untuk menyimpan data yang serupa.

Second Normal Form (2NF)

proses yang dilakukan untuk mendapatkan bentuk kedua dari normalisasi adalah :

– membuat separasi table untuk beberapa nilai yang berlaku untuk beberapa records
– relasikan table-table tersebut dengan menggunakan foreign key

note : record harus tidak bergantung pada apapun selain primary key, termasuk juga compound key jika diperlukan.

Third Normal Form (3NF)

proses yang dilakukan untuk mendapatkan bentuk ketiga dari normalisasi adalah :

– membuang field yang tidak bergantung pada key

note : nilai yang bukan bagian record’s key tidak seharusnya berada di table tersebut.

Normalisasi 1

Normalisasi 2

Normalisasi 3

Fungsi Index pada SQL SERVER dan contoh Syntaxnya

Hallo sobat blogger,

pada pembahasan kali ini akan sedikit mengupas tentang penggunaan fungsi index khususnya pada SQL (Structure Query Langguage), sebelum membahas segi technicalnya ada baiknya kita mengerti terlebih dahulu fungsi dari index itu sendiri, berikut penjelasannya.

Index secara harfiah berarti daftar kata-kata, merujuk dari pengertian ini udah kebayang dong fungsinya kira2 apa, (nyontek dari google translate)😛 . yup index berfungsi untuk mempercepat pencarian data pada SQL, bayangkan jika terdapat ribuan record pada table tersebut, dan kita hanya ingin menampilkan beberapa record yang bersifat rutinitas, disinilah fungsi index sangat terpakai. untuk lebih jelasnya lagi langsung kita coba untuk menuliskan syntaxnya dehh.

Membuat Index (Create Index)

sintaks :

create [unique] [clustered | nonclustered] index “index_name”
on { table | view } ( column [ASC | DESC] [,..n])
[ with <index_option> [,..n] ]
[ on filegroup ]

<index_option> ::=
{ pad_index | fillfactor = fillfactor | ignore_dup_key | drop_existing | statistics_norecompute | sort_in_tempdb }

contoh :

set nocount off
use pubs
if exists (select name from sysindexes where name = ‘au_id_ind’)
drop index authors.au_id_ind

use pubs
create index au_id_ind
on authors (au_id)

sumber 1
sumber 2 pengantar sistem basis data case study all in one indrajani SKom , MM

Lingkungan Basis Data

hallo sobat blogger, udah lama ga nulis ni, pada postingan kali ini penulis ingin sedikit berbagi mengenai basis data atau yang biasa kita kenal dengan “Database” , alasan kenapa penulis memilih tema basis data, karena saat ini penulis sedang mendalami database terutama MS SQL Server, akan tetapi pada postingan kali ini penulis tidak akan membahas ke arah software tersebut “MS SQL Server”.  yaudah kebanyakan basa basi, langsung yuk diintip sedikit informasi mengenai lingkungan basis datanya

pada kesempatan kali ini kita akan sedikit membahas mengenai lingkungan basis data yang mencakup :

– sejarah arsitektur basis data,

– 3 level ANSI-SPARC (Data independence, Data Dependence, dan bahasa yang digunakan dalam basis data

– multi user DBMS arsitektur secara singkat.

Sejarah Sistem Arsitektur Basis Data

usulan mengenai istilah standart dan umum mengenai arsitektur sistem basis data dihasilkan oleh DBTG (Data Base Task Group) pada tahun 1971, terdapat 2 tingkatan yaitu

> System View (Schema) yaitu struktur basis data
> User View (SubSchemas) yaitu bagian basis data yang dapat dilihat oleh user atau program applikasi

pada tahun 1975, The American National Standards Institue (ANSI), Standards Planning and Requirement Committee (SPARC), ANSI/X3/SPARC, menghasilkan pendekatan tiga tingkatan dalam sebuah sistem katalog. meskipun model ANSI-SPARC tidak menjadi standart, tapi ANSI-SPARC masih tetap menyediakan dasar untuk pengertian beberapa fungsi dalam DBMS.


tiga level ANSI-SPARC terdiri dari :

> Level Eksternal
cara pandang individual user, dimana masing2 user hanya akan berkepentingan dengan satu bagian saja, karakteristik level eksternal ini sebagai berikut :

  • cara pandang user terhadap basis data (Database)
  • Berkenaan dengan apa yang tampak bagi para user dan Application Developer
  • Menjelaskan bagaimana data yang ada di representasikan untuk user yang berbeda

> Level Konseptual
merupakan representasi informasi keseluruhan isi basis data, dimana seluruh pandangan masing-masing user digabungkan.

karakteristik level konseptual ini sebagai berikut :

  • Cara pandang keseluruhan basis data
  • Menjelaskan data apa saja yang tersimpan dan hubungan antar data

> Level Internal
pada level ini berisi berbagai tipe internal record yang di definisikan oleh skema internal.

karakteristik pada level internal :

  • Berkenaan dengan penyimpanan secara fisik
  • Menjelaskan bagaimana data yang ada disimpan dalam basis data.

source dari Pengantar sistem basis data case study all in one

Pengenalan ITIL (Information Technology Infrastructure Library)

hallo sobat blogger,

udh lumayan lama juga ni ga nulis di blog pribadi, hehe,
untuk tema kali ini mengangkat tentang ITIL , eittt jgn ngeres dulu ITIL disini adalah singkatan dari Information Technology Infrastructure Library, yuk ahh daripada lama basa basi mending langsung ke pokok pembahasan aja.

ITIL adalah sebuah konsep mengenai pengelolaan IT yang baik, dapat juga diartikan merupakan sebuah framework yang memberikan panduan dan petunjuk mengenai tata kelola layanan teknologi informasi,

adapun frameworknya sendiri dibuat berdasarkan Best Practice , Good Practice dan Common practice dalam pengelolaan teknologi informasi di berbagai industri dan sektor.

Information Technology Infrastructure Library (ITIL) merupakan sebuah kerangka dalam pengelolaan Teknologi Informasi (TI). ITIL dibuat oleh Central Computer and Telecommunication Agency (CCTA) di Inggris yang kemudian berubah menjadi Office of Government Commerece (OGC) atau setingkat dengan Departemen Perdagangan di Indonesia. Permulaan dibuatnya ITIL berawal dari:

  • Investasi TI dirasakan sangat mahal
  • Pengelolaan TI terlihat sebagai Black Box bagi bisnis dan manajemen organisasi
  • Pengelolaan TI semakin rumit
  • Bisnis dan pengguna layanan semakin menuntut adanya sebuah kualitas layanan yang baik
  • Best practice adalah kumpulan praktek2 mengenai pengelolaan IT terbaik
  • Good Practice adalah kumpulan praktek2 mengenai pengelolaan IT yang sudah diterima dan diterapkan oleh banyak perusahaaan

common practice itu adalah yang tadinya best practice, setelah diterima oleh pihak2 yang mengunakan maka akan menjadi good practice dalam suatu organisasi, nah good practice ini karena sudah terbiasa digunakan sehari2 maka akan menjadi common practice atau practice yang sudah umum digunakan, yang tadinya tidak terbiasa menjadi terbiasa.

Versi 1

Akhir 80-an dan awal 90-an
Terdiri dari lebih 40 buku/publikasi
Merupakan Dokumentasi Best Practice

Versi 2

Dikembangkan awal tahun 90-an sampai tahun 2004
Terdiri dari 7 buku
Tujuannya untuk menjembatani antara teknologi dan bisnis

Versi 3

lMulai dikembangkan dari tahun 2004 – 2007
lTerdiri dari 5 buku yang disebut CORE Books
lIntegrasi antara IT dan Bisnis

lPernyataan OGC untuk ITIL V3:


We recognize that much of ITIL V2 is currently in use and relevant.
In this respect, nothing has changed. V2 is part of V3

sekian dulu untuk pengenalan ITIL dari Penulis, mohon apabila terdapat kesalahan dalam penulisan.