Selasa, 06 Agustus 2019

Jenis Perintah Scp Untuk Linux Ubuntu



scp kependekan dari "secure copy." merupkan perintah yang kondusif untuk menyalin file melalui koneksi jaringan yang terenkripsi. Perintah ini hampir sama dengan perintah cp, perbedaannya terdapat pada koneksi jaringan yang aman.

Perintah scp sering dipakai untuk mentransfer banyak sekali file antara komputer lokal dalam satu jaringan dan remote host atau antara dua jaringan luas menyerupai internet. Perintah SCP kondusif alasannya yakni berjalan melalui protokol Secure Shell (SSH).

Perintah scp sanggup dianggap sebagai versi jaringan cp. Misalnya, kita sanggup memakai perintah cp berikut:
cp /home/kuliahkomputer/images/image*.jpg /kuliahkomputer/stacy/archive
Perintah tersebut yang akan menyalin semua file dalam gambar direktori di direktori home kuliahkomputer pengguna yang namanya dimulai dengan "images" dan berakhir dengan ".jpg" ke arsip direktori di direktori rumahnya.

Demikian pula, Anda sanggup memakai perintah scp:
scp /home/kuliahkomputer/images/image*.jpg userkkr@11.13.14.2:/home/kuliahkomputer/archive
Perintah tersebut untuk mengunggah file yang sama ke server 11.13.14.2, memakai userkkr nama login, ke direktori jauh / home / kuliahkomputer / arsip. scp akan meminta kata sandi jarak jauh userkkr sebelum memulai pengunggahan.

Atau, Anda sanggup memilih lokasi jarak jauh sebagai lokasi sumber jikalau Anda ingin mengunduh file. Sebagai contoh,
scp userkkr@11.13.14.2: /home/kuliahkomputer/archive/image*.jpg / home / kuliahkomputer / unduhan
... akan mengunduh semua file di direktori jarak jauh / home / kuliahkomputer / arsip di myhost.com yang namanya dimulai dengan "gambar" dan berakhir dengan .jpg, ke direktori lokal / home / kuliahkomputer / unduhan.

Anda juga sanggup memilih host jarak jauh sebagai sumber dan tujuan. Misalnya, perintah berikut akan mentransfer file dari satu direktori jarak jauh di myhost.com ke direktori lain di server yang sama:
scp user@11.13.14.2: /home/user/dir1/file.txt user@myhost.com: / home / user / dir2
... sementara perintah ini akan mentransfer file dari satu host jarak jauh ke yang lain:
scp someuser@alpha.com: /somedir/somefile.txt someuser@beta.com: / anotherdir
Perlu diingat bahwa semua transfer scp mempunyai manfaat keamanan: mereka dienkripsi, menyerupai sesi ssh atau sftp.

oke, tanpa mau membuang banyak waktu. mari kita berguru perintah-perintah yang biasa digunakan
1. Copy Sebuah File cara 1

[root@lkuliahkomputer ]# scp userkkr@11.13.14.2:/home/kuliahkomputer/contoh-1.txt .
1
[root@lkuliahkomputer ]# scp userkkr@11.13.14.2:/home/kuliahkomputer/contoh-1.txt .
Keterangan:
Pada perintah diatas maksudnya yakni dicopykan sebuah file contoh-1.txt yang berada pada user kuliahkomputer dengan ip 11.13.14.2 kedalam directory aktif yang berada di local.

2. Copy Sebuah File cara 2

[root@lkuliahkomputer ]# scp -r contoh-2.txt userkkr@192.168.1.200:/simpan
1
[root@lkuliahkomputer ]# scp -r contoh-2.txt userkkr@192.168.1.200:/simpan
Keterangan:
Pada perintah diatas maksudnya yakni mengirimkan sebuah file contoh-2.txt kepada user kuliahkomputer yang mempunyai ip 192.168.1.200 dan ditaruh dalam directory /simpan
3. Copy Sebuah Folder

[root@lkuliahkomputer ]# scp -r userkkr@11.13.14.2:/home/kuliahkomputer/simpan/contoh-folder /simpan
1
[root@lkuliahkomputer ]# scp -r userkkr@11.13.14.2:/home/kuliahkomputer/simpan/contoh-folder /simpan
Keterangan:
Pada perintah diatas maksudnya yakni mengcopykan sebuah directory contoh-folder dari user kuliahkomputer dengan ip 11.13.14.2 kedalam directory local yaitu /simpan

4.Copy Sebuah File 3 – Kompresi Opsi

[root@lkuliahkomputer ]# scp -C userkkr@11.13.14.2:/home/kuliahkomputer/simpan/compile.tar.gz /simpan
1
[root@lkuliahkomputer ]# scp -C userkkr@11.13.14.2:/home/kuliahkomputer/simpan/compile.tar.gz /simpan
Keterangan:
Pada perintah diatas maksudnya yakni mengcopykan sebuah file compile.tar.gz yang berada pada user kuliahkomputer dengan ip 11.13.14.2 kedalam directory local /simpan yang tentunya dengan metode kompresi data, semoga file tersebut sanggup lebih cepat terkirim. (Untuk lebih jauh mengenal opsi dari sintaks tersebut sanggup dibaca disini).

5. Copy file/folder dengan berbeda port ssh

[root@lkuliahkomputer ]# scp -P 30000 index.html userkkr@ipaddress:/home/user
1
[root@lkuliahkomputer ]# scp -P 30000 index.html userkkr@ipaddress:/home/user
Keterangan:
Pada perintah diatas maksudnya yakni mengcopy file dari lokal dengan nama index.html kepada user kuliahkomputer dengan ip address dan port 3000 ke direktori /home/user

6. Copy Semua file/folder

[root@lkuliahkomputer ]# scp -r * userkkr@ipaddress:/home/kuliahkomputer/public_html/
1
[root@lkuliahkomputer ]# scp -r * userkkr@ipaddress:/home/kuliahkomputer/public_html/
Keterangan:
Pada perintah diatas maksudnya yakni mengcopy semua file dan folder

Jumat, 02 Agustus 2019

Cara Biar Website Tidak Terindex Google

secara default website akan terindex oleh google atau search engine lainnya. Waktu untuk masuk daftar index sangat berfariatif. namun kadang muncul pertanyaan "Bagaimana cara mengecualikan situs web dari pencarian Google? "

Ada 2 Cara untuk menghapus indeks Situs Web dari Mesin Pencari.

Metode pertama:

Salah satu cara untuk menghapus halaman dari hasil mesin pencari ialah dengan menambahkan file robots.txt ke situs kita. Keuntungan memakai metode ini ialah kita sanggup mendapat kontrol lebih besar atas apa yang kita izinkan bot diindeks. Di dalam file robots.txt, kita sanggup memilih apakah Anda ingin memblokir bot dari satu halaman, seluruh direktori, atau bahkan hanya satu gambar atau file.

Kita sanggup memasukkan yang berikut ini dalam file Robots.txt Anda. Cukup gunakan notepad dan buat file teks kemudian unggah ke Root Folder atau sanggup menciptakan File pribadi dari Cpanel dengan mengklik “+ File”. File ini akan tersedia di folder root. Cukup periksa dengan Cpanel -> File Manager




Robots.txt - Add the below 2 lines.
User-agent: *
Disallow: /
cara ini tidak akan membiarkan bot serach engine untuk merayapi(crawl) situs web kita. Hanya kalau situs web dirayapi akan tersedia di database Google Search / Index.

Method 2:

Anda juga sanggup menghapus indeks seluruh halaman web, dan / atau menghapus indeks pada seluruh halaman web. Ini sanggup dicapai dengan menambahkan tag meta "noindex" dan / atau tag meta "nofollow".

Salin salah satu tag berikut dan rekatkan di bab <head> HTML halaman Anda. Ini sanggup dilakukan dengan dukungan pengembang, kalau kita tidak sanggup mengakses code tersebut.
For "noindex":
<META NAME="robots" CONTENT="noindex">
For "nofollow":
<META NAME="robots" CONTENT="nofollow">
For both "noindex" and "nofollow":
<META NAME="robots" CONTENT="noindex,nofollow">


Semoga bermanfaat

Kamis, 01 Agustus 2019

Cara Biar Website Tidak Terindex Google

secara default website akan terindex oleh google atau search engine lainnya. Waktu untuk masuk daftar index sangat berfariatif. namun kadang muncul pertanyaan "Bagaimana cara mengecualikan situs web dari pencarian Google? "

Ada 2 Cara untuk menghapus indeks Situs Web dari Mesin Pencari.

Metode pertama:

Salah satu cara untuk menghapus halaman dari hasil mesin pencari ialah dengan menambahkan file robots.txt ke situs kita. Keuntungan memakai metode ini ialah kita sanggup mendapat kontrol lebih besar atas apa yang kita izinkan bot diindeks. Di dalam file robots.txt, kita sanggup memilih apakah Anda ingin memblokir bot dari satu halaman, seluruh direktori, atau bahkan hanya satu gambar atau file.

Kita sanggup memasukkan yang berikut ini dalam file Robots.txt Anda. Cukup gunakan notepad dan buat file teks kemudian unggah ke Root Folder atau sanggup menciptakan File pribadi dari Cpanel dengan mengklik “+ File”. File ini akan tersedia di folder root. Cukup periksa dengan Cpanel -> File Manager




Robots.txt - Add the below 2 lines.
User-agent: *
Disallow: /
cara ini tidak akan membiarkan bot serach engine untuk merayapi(crawl) situs web kita. Hanya kalau situs web dirayapi akan tersedia di database Google Search / Index.

Method 2:

Anda juga sanggup menghapus indeks seluruh halaman web, dan / atau menghapus indeks pada seluruh halaman web. Ini sanggup dicapai dengan menambahkan tag meta "noindex" dan / atau tag meta "nofollow".

Salin salah satu tag berikut dan rekatkan di bab <head> HTML halaman Anda. Ini sanggup dilakukan dengan dukungan pengembang, kalau kita tidak sanggup mengakses code tersebut.
For "noindex":
<META NAME="robots" CONTENT="noindex">
For "nofollow":
<META NAME="robots" CONTENT="nofollow">
For both "noindex" and "nofollow":
<META NAME="robots" CONTENT="noindex,nofollow">


Semoga bermanfaat