Installation der Software des LHC Computing Grid auf einem Institutscluster. Hartmut Stadie, Christopher Jung, Günter Quast, Klaus Rabbertz, Jens Rehn



Similar documents
glite Job Management

Integrating a heterogeneous and shared Linux cluster into grids

Computing in High- Energy-Physics: How Virtualization meets the Grid

Virtualization of a Cluster Batch System

Official Reference Copy

Global Grid User Support - GGUS - in the LCG & EGEE environment

DCMS Tier 2/3 prototype infrastructure

The glite Workload Management System

Safe Harbor Statement

Symantec Backup Exec (TM) 13 Installation Log

PAUL SCHERRER INSTITUT. PSI Site Report. (Spring HEPIX 2009) Gasser Marc. Paul Scherrer Institute, Switzerland

Dynamic Extension of a Virtualized Cluster by using Cloud Resources CHEP 2012

Virtualization Infrastructure at Karlsruhe

Upgrading Your Skills to MCSA Windows Server 2012 MOC 20417

Sun Grid Engine, a new scheduler for EGEE

CommVault Simpana 7.0 Software Suite. und ORACLE Momentaufnahme. Robert Romanski Channel SE

Recommendations for Static Firewall Configuration in D-Grid

IAC-BOX Network Integration. IAC-BOX Network Integration IACBOX.COM. Version English

Recent grid activities at INFN Catania(*) Roberto Barbera

CERN local High Availability solutions and experiences. Thorsten Kleinwort CERN IT/FIO WLCG Tier 2 workshop CERN

Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft. Global Grid User Support - GGUS - within the LCG & EGEE environment

The GENIUS Grid Portal

Basics of Virtualisation

1Copyright 2013, Oracle and/or its affiliates. All rights reserved.

bwgrid Treff MA/HD Sabine Richling, Heinz Kredel Universitätsrechenzentrum Heidelberg Rechenzentrum Universität Mannheim 19.

Integration of Virtualized Workernodes in Batch Queueing Systems The ViBatch Concept

Brauche neues Power Supply

Welcome to the User Support for EGEE Task Force Meeting

Betriebssystem-Virtualisierung auf einem Rechencluster am SCC mit heterogenem Anwendungsprofil

quick documentation Die Parameter der Installation sind in diesem Artikel zu finden:

Dial-Up VPN auf eine Juniper

22. April 2010 Siemens Enterprise Communications

GPFS Management und Monitoring mit dem IBM Platform Cluster Manager (PCM) Standard Edition

Infrastruktur Sicherheit mit Checkpoint

Destination Cloud. EMC Deutschland GmbH. Holger Daube. vspecialist Technical Teamlead Germany. Copyright 2010 EMC Corporation. All rights reserved.

CMS Dashboard of Grid Activity

Designing and Deploying Messaging Solutions with Microsoft Exchange Server 2010 MOC 10233

Using Globus Toolkit

The Grid-it: the Italian Grid Production infrastructure

Servermigrationen zu Hyper-V / Azure mit Double-Take Move

Asterisk und Mediagateways

Suche: Einsatz und Nutzen im Unternehmen

Sun Grid Engine, a new scheduler for EGEE middleware

Entwicklung von Integrationslösungen aus einem Guss mit AIA Foundation Pack 11g

Zielgruppe Dieses Training eignet sich für System Engineers und an SCCM- Administratoren.

AnyWeb AG

Copyright 2013, Oracle and/or its affiliates. All rights reserved. Customer Presentation

Cloud Performance Group 1. Event. 14. Januar 2016 / Matthias Gessenay (matthias.gessenay@corporatesoftware.ch)

BP9 - Citrix Receiver Optimierung: So verbessern Sie Management und Benutzerkomfort. Systems Engineer, Citrix Systems GmbH

Global Grid User Support - GGUS - start up schedule

Cloud OS Network. Uwe Lüthy, Die Bedeutung einer Partner Managed Cloud für Kunden. Partner Technology Strategiest

Microsoft Nano Server «Tuva» Rinon Belegu

2010 Users Symposium Berlin

Multipurpsoe Business Partner Certificates Guideline for the Business Partner

Grid Computing in Aachen

Designing and Implementing a Server Infrastructure MOC 20413

Die eingesetzte ORACLE Version ist Oracle Database 10g Enterprise Edition Release

AnyWeb AG / ITSM Practice Circle / Christof Madöry

Quick Start Guide UTM 110/120

The ENEA-EGEE site: Access to non-standard platforms

Technische Alternative elektronische Steuerungsgerätegesellschaft mbh. A-3872 Amaliendorf, Langestr. 124 Tel +43 (0)

ATLAS job monitoring in the Dashboard Framework

Search Engines Chapter 2 Architecture Felix Naumann

LTS-SCHEMA.ORG PLUGIN PROTOTYPE

The dcache Storage Element

Site specific monitoring of multiple information systems the HappyFace Project

Configuring and Administering Hyper-V in Windows Server 2012 MOC 55021

HappyFace for CMS Tier-1 local job monitoring

Performance Monitor. Intellicus Web-based Reporting Suite Version 4.5. Enterprise Professional Smart Developer Smart Viewer

Erfolgreiche Zusammenarbeit:

How To Connect A Webadmin To A Powerpoint (Utm) From A Usb To A Usb (Net) Or Ipa (Netlan) Device (Netbook) From Your Computer Or Ipam (Netnet

QAS DEBUG - User und Computer

(51) Int Cl.: H04L 9/32 ( ) G09C 1/00 ( ) G06F 21/33 ( ) H04L 29/06 ( )

MySQL Cluster: HA als StorageEngine

BLUETOOTH TECHNOLOGY:

Dcache Support and Strategy

GridKa Database Services

New -settings for POP3- and IMAP-users

Implementing a PKI Infrastructure with Windows Server 2008/2012

Jetzt können Sie den Befehl 'nsradmin' auch für diverse Check-Operationen verwenden!

Deployment Planner. inexx Novo Grid Practice Agent HW Requirements.pdf

Windows Server und Windows Vista-Gruppenrichtlinien

MySQL 5.0. Kai Voigt MySQL AB Kiel, 17. Februar 2006

CobraNet TM User s Manual

DV4 - Citrix CloudGateway: Access and control Windows, SaaS and web applications. Systems Engineer, Citrix Systems GmbH

Towards a Framework for Engineering Smart-Grid-Specific Privacy Requriements

How To Get A New Version Of Windows (Windows 8.2) From A Windows Server (Windows) To A Windows 7.1 And From A New Windows 7 (Windows 7) (Windows Server) (Powerpoint

Update to V10. Automic Support: Best Practices Josef Scharl. Please ask your questions here Event code 6262

Wie das Netz nach Deutschland kam

Report from SARA/NIKHEF T1 and associated T2s

PPS Internet-Praktikum. Prof. Bernhard Plattner Institut für Technische Informatik und Kommunikationsnetze (TIK)

Themen der Praktikumsnachmittage. PPS Internet-Praktikum. Zielsetzung. Infrastruktur im ETF B5

Get Related Schatzsuche in SciFinder Scholar

ETK Technical Workshop User Centric vs. Device Centric

BP1 Mobile App Management: Solutions for ios and Android. Gary Barton Mobility Architect Citrix Receivers and Gateways Group

Entwurf eines Lizenzmanagement-Systems als zentraler Dienst für das Plan S Chassis. Masterarbeit

Eine CAE Infrastruktur für LS-DYNA. unter Verwendung von. Microsoft Windows HPC Server 2008

Software Requirements, Version 2015_01_12

The EDGeS project receives Community research funding

Overview WebServices Web Services Choreography Languages. WebServices. Jan Krüger

Transcription:

Installation der Software des LHC Computing Grid auf einem Institutscluster Hartmut Stadie, Christopher Jung, Günter Quast, Klaus Rabbertz, Jens Rehn Institut für Experimentelle Kernphysik Universität Karlsruhe (TH) Was ist das LCG-2? Installation Status, offene Fragen

LHC Computing Grid Infrastruktur für LHC Computing inhomogen (Tier-n-Struktur), viele Zentren minimales LCG Cluster: SE, CE (, UI)

LCG: Benutzersicht EKP User Interface job desc. edg job submit edg job status edg job get output CERN Resource Broker Input Sandbox job status match job to site Output Sandbox UI: > grid-proxy-init Your identity: /O=GermanGrid/OU=EKP/CN=Hartmut Stadie Enter GRID pass phrase for this identity: Creating proxy... Done Your proxy is valid until: Mon Mar 29 19:42:55 2004 > edg-job-submit --vo cms gridtest.jdl > edg-job-status > edg-job-get-output input output GridKa Compute Element grid mapfile jobmanager local batch system Site Info Worker Node

gridtest.jdl: Executable = "testjob.sh"; StdOutput = "testjob.out"; StdError = "testjob.err"; InputSandbox = {"testjob.sh"}; OutputSandbox = {"testjob.out","testjob.err"}; #Requirements = other.glueceuniqueid == \ "adc0015.cern.ch:2119/jobmanager-lcgpbs-short"; testjob.out: td077.ifae.es Thu Mar 25 11:52:00 CET 2004 Job id Name User Time Use S Queue ---------------- ---------------- ---------------- -------- - ----- 5537.lcgce02 job_aug03_fit.s saltob 00:00:00 R localq 5538.lcgce02 job_aug03_fit.s saltob 00:00:00 R localq 5568.lcgce02 STDIN cms007 0 R short Thu Mar 25 11:57:00 CET 2004

Institutscluster Infrastruktur: Portale für Experimente Rechenknoten Fileserver Kontrollrechner Anbindung ans Grid??? Beim LCG-2 zwei Installationsmöglichkeiten: LCFGng von Hand

LCFGng LCFG: Local ConFiGuration system automatische Installation des OS Installation/Upgrade/Entfernung von Softwarepaketen(rpms). zentrale Konfiguration und Verwaltung der Rechner erweiterbar auf weitere Gridkomponenten und Anwendungssoftware leichte Installation neuerer LCG-Versionen

Installationsablauf LCFGng server: supplies profiles, rpms monitors status DHCP server DHCP: get ip mount installation dir read profile, run agents CE: agents read configuration and configure the node mounts installation dir SE: agents read configuration and configure the node mounts installation dir

Installation LCFGng installieren, (rpms, DHCP server, apache) wichtige Verzeichnisse: /opt/local/linux/7.3/rpmcfg /opt/local/linux/7.3/rpms /var/obj/conf/server/source cvs co -r lcg2 20040225 1700 lcg2 enthält: rpmlist, source, updaterep, examples, docs, manual-install local-cfg.h, site-cfg.h, etc. anpassen site name, version, ce name, se name,network,...

Profil für jeden Rechner in source anlegen: /* ekp-lcg-ce ============================================== CE Node for LCG-1 and site GIIS */ #define HOSTNAME ekp-lcg-ce #define NIC_MODULE 8139too #include "cfgdir-cfg.h" #include CFGDIR/macros-cfg.h" #include "site-cfg.h" #include CFGDIR/redhat73-cfg.h" #include CFGDIR/Users-cfg.h" #include CFGDIR/ComputingElement-cfg.h" #include "local-cfg.h" network.ipaddr_eth0 129.13.133.12 mkxprof -r -s -v ekp-lcg-ce./updaterpmcache.pl../source/ekp-lcg-ce Computer von Diskette booten, um die Installation zu starten Zertifikat nach /etc/grid-security kopieren

Installation bei Hand Anleitung: lcg2/manual-install/ui/ui manual install.txt rpms herunterladen rpms installieren Konfiguration anpassen: ntp, /etc/ld.so.conf, cron-job, /opt/edg/etc Testen: grid-proxy-init globus-job-run ekp-lcg-ce /bin/date edg-job-submit gridtest.jdl edg-job-status https:... edg-job-get-output https:...

Status Rechner in Karlsruhe: UI (LCG-1) und LCFGng server (von Hand) CE (LCG-2, LCFGng) SE (LCG-2, LCFGng) privat: UI (LCG-2) nächste Schritte: Anbindung der Rechenknoten Anbindung der Fileserver Veröffentlichung der Site http://www-ekp.physik.uni-karlsruhe.de/ stadie/grid/index.html

Fragen und Probleme Hardwareanforderungen im Betrieb? (in Karlsruhe: ausrangierte Rechner) Nutzung der IEKP-Resourcen von aussen Sicherheit, Stabilität? Authentizierung, wer darf wo rechnen? grid-mapfile, LDAP-Server Experimentsoftware? komplexe Softwareumgebungen, Wartung Arbeitsaufwand, Finanzierung?