https://dc.planet3dnow.de/wiki/api.php?action=feedcontributions&user=TAL9000&feedformat=atomPlanet 3DNow! Distributed Computing Wiki - Benutzerbeiträge [de]2024-03-28T21:52:24ZBenutzerbeiträgeMediaWiki 1.35.1https://dc.planet3dnow.de/wiki/index.php?title=Rosetta@home&diff=7054Rosetta@home2022-02-17T16:24:22Z<p>TAL9000: Ergänzung Besonderheiten Vbox WUs und deren Deaktivierung auf der Computer Details Seite</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|University of Washington (Fachrichtung Biochemie)}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|September 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.bakerlab.org/rosetta/|Name=boinc.bakerlab.org/rosetta/}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://ralph.bakerlab.org|Name=ralph.bakerlab.org|Typ=Alpha}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.bakerlab.org/rosetta/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://ralph.bakerlab.org/|Typ=Alpha}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bakerlab.org/rosetta/team_display.php?teamid=750}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://ralph.bakerlab.org/team_display.php?teamid=502|Typ=Alpha}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Rosetta@Home|AlphaName=RALPH@Home}}<br />
|}<br />
<br />
'''Rosetta@home''' ist ein Projekt der Universität zu Washington und beschäftigt sich <br />
mit der Untersuchung der dreidimensionalen Struktur von Eiweißen (Proteinen) um <br />
Heilmittel für Krankheiten wie Malaria, HIV, Krebs und andere schwere Krankheiten <br />
zu finden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Die Struktur eines Proteins bestimmt seine Funktion mit. Fehler in der Struktur stören diese Funktion und sind häufig Ursache von Krankheiten wie Krebs und Alzheimer. Rosetta ist eine Software zur Vorhersage von Proteinstrukturen aus Aminosäuresequenzen und gilt als die beste auf ihrem Gebiet.<br />
<br />
Hauptziel von Rosetta@home ist die Weiterentwicklung der Rosetta-Software. Das Projekt betreibt also vor allem Grundlagenforschung. Jedoch ergeben sich aus der Zusammenarbeit mit verschiedenen Stiftungen und Instituten auch Bezüge auf ganz konkrete Krankheiten:<br />
* Am Imperial College in London gibt es ein Projekt, das zu den von der Gates-Stiftung finanzierten "Grand Challenge Projects in Global Health" gehört. Dieses Projekt versucht, die Übertragung von '''Malaria''' durch Mückenstiche einzudämmen. Dazu sollen einige Gene der Mücken deaktiviert werden, die von dem Malaria-Erreger benötigt werden, um in der Mücke zu überleben. Die Rosetta-Software wird dazu eingesetzt, maßgeschneiderte Enzyme zu entwerfen, mit denen genau diese Gene angesteuert und deaktiviert werden können.<br />
* Zusammen mit einer Forschungsgruppe in Harvard wird Rosetta eingesetzt, um ein Modell des '''Anthrax'''-Toxins zu entwickeln. Dieses Modell soll dazu genutzt werden, geeignetere Behandlungsmethoden zu entwickeln.<br />
* Mit Forschern in Seatlle und den National Institutes of Health wird zusammengearbeitet, um zu versuchen, einen Impfstoff gegen '''HIV''' zu entwickeln. Rosetta wird dabei dazu eingesetzt, kleine Proteine zu entwickeln, die die unveränderlichen Stellen der Hüllproteine des HI-Virus dem Immunsystem bekannt machen, sodass dieses passende Antikörper produzieren kann.<br />
* Als Ursache von '''Alzheimer''' und anderen Krankheiten werden Störungen der Proteinfaltung angenommen, die dazu führen, dass die Proteine nicht ihre normale Struktur ausbilden, sondern sogenannte Amyloide - große, zusammengelagerte Strukturen ("Klumpen"). Einer Arbeitsgruppe an der UCLA ist es inzwischen gelungen, die Struktur eines Amyloids zu ermitteln. Mit diesem Wissen sollen nun Verfahren entwickelt werden, mit denen man vorhersagen kann, welche Bereiche von Proteinen wahrscheinlich an der Bildung von Amyloiden beteiligt sind. Fernziel ist eine Möglichkeit, die Amyloidbildung und so möglicherweise auch die Krankheit zu verhindern.<br />
* '''Krebs''' wird u. a. durch Mutationen an Schlüsselstellen des Genoms hervorgerufen. Bei der Gentherapie wird die DNA zerschnitten und von der Zelle mit Hilfe einer zweiten, intakten Kopie des Gens repariert. Bisherige Methoden haben allerdings den Nachteil, dass die nicht mutierte Kopie des Gens willkürlich irgendwo in das Genom eingefügt wird. Falls das in der Nähe eines ebenfalls krebsauslösenden Gens geschieht, kann es passieren, dass die eine Mutation geheilt wird, aber dafür eine andere ausgelöst wird. Rosetta@home versucht, Methoden zu entwickeln, die die DNA gezielter zerschneiden und so dieses Problem umgehen.<br />
* '''Prostatakrebs''' entsteht aus einer Überempfindlichkeit des Androgen-Rezeptors gegen Testosteron. Im Normalfall bindet der Androgen-Rezeptor Testosteron und sorgt für eine normale männliche Entwicklung. Derzeit wird Prostatakrebs mit der sogenannten Hormontherapie behandelt, bei der die verfügbare Testosteronmenge verringert wird (gegebenenfalls durch Kastration). Jedoch sind viele Tumore dagegen resistent. Deshalb wird versucht, Proteine zu entwerfen, die stattdessen den Androgen-Rezeptor deaktivieren. Dabei werden zwei Ziele verfolgt: Zum einen soll verhindert werden, dass der Androgen-Rezeptor sich im Zellkern an DNA anbindet und dort tumorspezifische Gene aktiviert. Zum anderen soll auch schon das Eindringen des Rezeptors in den Zellkern verhindert werden.<br />
<br />
<br />
Die Beziehung zwischen der Vorhersage von Proteinstrukturen und der Behandlung von Krankheiten ist eine dreifache Beziehung:<br />
# Eine bessere Strukturvorhersage führt zu Verbesserungen des Proteindesigns, die sich wiederum direkt in die Produktion neuer Enzyme, Impfstoffe usw. umsetzen lassen.<br />
# Die Strukturvorhersage identifiziert Angriffspunkte für neue Arzneimittel, da dabei sehr viel über die Funktion vieler Proteine bekannt wird.<br />
# Die Strukturvorhersage ermöglicht ein gezieltes Design von Medikamenten. Ist die Struktur eines Proteins bekannt, lassen sich die Stellen bestimmen, die für die Funktion des Proteins verantwortlich sind. Mit der Rosetta-Software lässt sich berechnen, ob ein kleines Molekül (Medikament) sich an diese Stellen des Zielproteins anbinden und sie deaktivieren kann.<ref>[http://boinc.bakerlab.org/rosetta/rah_medical_relevance.php Forschung zu spezifischen Krankheiten]</ref><br />
<br />
== Erfolge des Projekts ==<br />
<br />
Die berechneten Proteinstrukturen werden regelmäßig mit experimentell ermittelten Strukturen verglichen. Auf der Seite [http://boinc.bakerlab.org/rosetta/rah_top_predictions.php Top predictions] sind die besten Vorhersagen vorgestellt.<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 09.09.2006 mit einem eigenen Team an Rosetta@home teil. Das Projekt wurde für den Februar 2009 und 2010 zum [[Projekt des Monats]] gewählt.<br />
<br />
== Teilnahme ==<br />
<br />
Sollte der BOINC-Client noch nicht installiert sein, kann er von [https://boinc.berkeley.edu/download.php boinc.berkeley.edu] <br />
heruntergeladen und installiert werden. Für Fragen zur Installation des BOINC-Clienten<br />
steht der Teil [[Portal:BOINC/Installation/Windows|Windows-Installation von BOINC]] mit Text und Bildern zur Verfügung.<br />
<br />
Um Rosetta@home nun als Projekt anzumelden, muss der BOINC-Manager geöffnet werden. In der Menüleiste wird der Eintrag ''"Assistenten"'' und dann ''"Projekt anmelden"'' ausgewählt. Im sich dann öffnenden Fenster wird die ''"Anmelde-URL"'' aus dem obigen Steckbrief eingegeben.<br />
<br />
Wenn noch kein Rosetta-Account vorhanden ist, wird dieser nun durch Auswahl des ersten Punktes ''"Nein, neues Teilnehmerkonto"'' erstellt. Dazu werden die Emailadresse und das gewünschte Passwort eingegeben und bestätigt. Unter [http://boinc.bakerlab.org/rosetta/home.php boinc.bakerlab.org/rosetta/home.php] kann man sich nun mit diesen Daten anmelden und Änderungen an den Einstellungen vornehmen. Siehe hierzu auch den Artikel zur [[Portal:BOINC/Konfiguration|BOINC-Konfiguration]]. Hier kann man auch den Namen eintragen, unter dem man in den Statistiken geführt werden möchte. Dem Team von Planet 3DNow! kann man beitreten, indem man die [http://boinc.bakerlab.org/rosetta/team_display.php?teamid=750 Teamstatistik] öffnet und auf ''"Join this team"'' klickt.<br />
<br />
Falls bereits ein Rosetta-Account vorhanden ist, lässt dieses sich durch Auswahl des Punkts ''"Ja, existierendes Teilnehmerkonto"'' und anschließender Eingabe der Emailadresse und des Passworts auf dem Rechner einrichten.<br />
<br />
Anschließend verbindet sich der BOINC-Client mit dem Projekt und lädt die Anwendung für Rosetta sowie die ersten [[Work-Unit|Work-Units]] herunter.<br />
<br />
=== Besondere Einstellungen ===<br />
<br />
Eine Eigenart von Rosetta ist, dass die Work-Units keine feste Länge haben, sondern man selbst festlegen kann, wie lang an einer Work-Unit gerechnet wird. Standardmäßig sind 3 Stunden eingestellt; ändern kann man den Wert auf der [http://boinc.bakerlab.org/rosetta/home.php Account-Seite] unter ''"Preferences"'' → ''"Rosetta@home preferences control resource share and customize graphics"'' → ''"Target CPU run time"''.<br />
<br />
Zum einen entlastet eine längere Bearbeitungszeit der einzelnen WUs die Server und die eigene Internetverbindung, zum anderen enlastet sie das Projekt selber, da die gleiche WU zur vollständigen Bearbeitung nicht mehr so oft verschickt werden muss. Zusätzlich stehen die Daten dann auch noch dem Projekt früher zur Verfügung.<br />
<br />
Ist der Rechner beispielsweise täglich 12 h angeschaltet, dann kann bei ''"Target CPU run time"'' die Zeit von 12 Stunden eingegeben werden, sodass der Rechner je nach Anzahl der CPU-Kerne 1-4 WUs von jeweils ca. 5 MB erhält. Eine WU wird dann 12 h berechnet.<br />
Mit dem Standardwert von 3 Stunden würden dagegen ca. viermal soviele WUs heruntergeladen (vierfacher Traffic), die dann jeweils nur 3 Stunden berechnet werden. Zusätzlich muss bei der Einstellung von 3 Stunden jede WU noch an drei weitere Rechner verschickt werden, um auf den selben Berechnungsstand zu kommen wie 1 Rechner mit der Einstellung von 12 Stunden.<br />
<br />
Rosetta kann ebenfalls WUs versenden, die dann in einer separaten Virtuellen Maschine berechnet werden. Diese werden dann in der entsprechend Installierten VirtualBox ausgeführt. Da diese VirtualBox VM jobs entsprechend mehr Ressourcen benötigen, kann man auf der jeweiligen Host Seite (https://boinc.bakerlab.org/rosetta/show_host_detail.php?hostid=xxx) ganz unten, den Versand der VirtualBox VM jobs erlauben oder verbieten. Der Standard steht auf erlauben, warum das Projekt dies nicht unter wie andere Projekte unter den Projekteinstellungen (https://boinc.bakerlab.org/rosetta/prefs.php?subset=project) anbietet ist unbekannt.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Rosetta.png]]<br />
<br />
[[Bild:Banner_Rosetta-RALPH.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.bakerlab.org/rosetta/ boinc.bakerlab.org] - Internetpräsenz des Projekts<br />
* [http://ralph.bakerlab.org/ ralph.bakerlab.org] - Internetpräsenz des Alphatests<br />
* [http://boinc.bakerlab.org/rosetta/team_display.php?teamid=750 Planet 3DNow! Teamstatistik]<br />
* [http://ralph.bakerlab.org/team_display.php?teamid=502 Planet 3DNow! Teamstatistik] (RALPH@home - Rosetta@home Alphatest)<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=PrimeGrid&diff=6335PrimeGrid2018-04-09T07:57:40Z<p>TAL9000: /* Planet 3DNow! */ team link</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|1=[http://www.primegrid.com/show_user.php?userid=1 Rytis Slatkevičius](?)}}<br />
|-<br />
| {{Steckbrief Nationalität|Litauen|lt}}<br />
|-<br />
| {{Steckbrief Start|Juli 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil(?)}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://www.primegrid.com/|Name=primegrid.com}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://www.primegrid.com/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://www.primegrid.com/orig/team_display.php?teamid=499}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=PrimeGrid}}<br />
|}<br />
<br />
'''PrimeGrid''' ist ein litauisches(?) Projekt zur Suche nach Primzahlen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
TODO<br />
<br />
=== Erfolge des Projekts ===<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
=== Planet 3DNow! ===<br />
<br />
Planet 3DNow! nimmt seit dem 23.11.2006 mit einem eigenen Team an PrimeGrid teil.<br />
<br />
TODO: Hier sollte auf unser Team bei diesem Projekt eingegangen werden.<br />
<br />
Team beitreten:<br />
[http://www.primegrid.com/team_display.php?teamid=499]<br />
<br />
=== Teilnahme ===<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
<br />
<br />
Schwachen Schlüssel für den P3D Cluster:<br />
<br />
Der schwacher Kontoschlüssel für dieses Projekt zur Teilnahme ohne ein eigenes Konto zu eröffnen ist:<br />
77312_e4405f6645d23eaa9d85a48773516e01<br />
<br />
<nowiki><account><br />
<master_url>http://www.primegrid.com/</master_url><br />
<authenticator>77312_e4405f6645d23eaa9d85a48773516e01</authenticator><br />
</account></nowiki><br />
<br />
<br />
Datei speichern unter:<br />
<nowiki>Win C:\ProgramData\BOINC\account_www.primegrid.com.xml<br />
Linux /var/lib/boinc-client/account_www.primegrid.com.xml</nowiki><br />
<br />
=== Banner ===<br />
<br />
[[Bild:Banner PrimeGrid.png]]<br />
<br />
=== Weblinks ===<br />
<br />
* [http://www.primegrid.com primegrid.com] - Internetpräsenz des Projekts<br />
* [http://www.primegrid.com/orig/team_display.php?teamid=499 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=PrimeGrid&diff=6334PrimeGrid2018-04-09T07:56:19Z<p>TAL9000: /* Teilnahme */</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|1=[http://www.primegrid.com/show_user.php?userid=1 Rytis Slatkevičius](?)}}<br />
|-<br />
| {{Steckbrief Nationalität|Litauen|lt}}<br />
|-<br />
| {{Steckbrief Start|Juli 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil(?)}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://www.primegrid.com/|Name=primegrid.com}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://www.primegrid.com/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://www.primegrid.com/orig/team_display.php?teamid=499}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=PrimeGrid}}<br />
|}<br />
<br />
'''PrimeGrid''' ist ein litauisches(?) Projekt zur Suche nach Primzahlen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
TODO<br />
<br />
=== Erfolge des Projekts ===<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
=== Planet 3DNow! ===<br />
<br />
Planet 3DNow! nimmt seit dem 23.11.2006 mit einem eigenen Team an PrimeGrid teil.<br />
<br />
TODO: Hier sollte auf unser Team bei diesem Projekt eingegangen werden.<br />
<br />
=== Teilnahme ===<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
<br />
<br />
Schwachen Schlüssel für den P3D Cluster:<br />
<br />
Der schwacher Kontoschlüssel für dieses Projekt zur Teilnahme ohne ein eigenes Konto zu eröffnen ist:<br />
77312_e4405f6645d23eaa9d85a48773516e01<br />
<br />
<nowiki><account><br />
<master_url>http://www.primegrid.com/</master_url><br />
<authenticator>77312_e4405f6645d23eaa9d85a48773516e01</authenticator><br />
</account></nowiki><br />
<br />
<br />
Datei speichern unter:<br />
<nowiki>Win C:\ProgramData\BOINC\account_www.primegrid.com.xml<br />
Linux /var/lib/boinc-client/account_www.primegrid.com.xml</nowiki><br />
<br />
=== Banner ===<br />
<br />
[[Bild:Banner PrimeGrid.png]]<br />
<br />
=== Weblinks ===<br />
<br />
* [http://www.primegrid.com primegrid.com] - Internetpräsenz des Projekts<br />
* [http://www.primegrid.com/orig/team_display.php?teamid=499 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=PrimeGrid&diff=6333PrimeGrid2018-04-09T07:53:00Z<p>TAL9000: /* Teilnahme */ add P3d-Cluster Weak Account Key</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|1=[http://www.primegrid.com/show_user.php?userid=1 Rytis Slatkevičius](?)}}<br />
|-<br />
| {{Steckbrief Nationalität|Litauen|lt}}<br />
|-<br />
| {{Steckbrief Start|Juli 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil(?)}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://www.primegrid.com/|Name=primegrid.com}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://www.primegrid.com/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://www.primegrid.com/orig/team_display.php?teamid=499}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=PrimeGrid}}<br />
|}<br />
<br />
'''PrimeGrid''' ist ein litauisches(?) Projekt zur Suche nach Primzahlen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
TODO<br />
<br />
=== Erfolge des Projekts ===<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
=== Planet 3DNow! ===<br />
<br />
Planet 3DNow! nimmt seit dem 23.11.2006 mit einem eigenen Team an PrimeGrid teil.<br />
<br />
TODO: Hier sollte auf unser Team bei diesem Projekt eingegangen werden.<br />
<br />
=== Teilnahme ===<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
Schwachen Schlüssel für den P3D Cluster:<br />
Der schwacher Kontoschlüssel für dieses Projekt zur Teilnahme ohne ein eigenes Konto zu eröffnen ist:<br />
77312_e4405f6645d23eaa9d85a48773516e01<br />
<br />
<account><br />
<master_url>http://www.primegrid.com/</master_url><br />
<authenticator>77312_e4405f6645d23eaa9d85a48773516e01</authenticator><br />
</account><br />
<br />
<br />
Datei speichern unter:<br />
Win C:\ProgramData\BOINC\account_www.primegrid.com.xml<br />
Linux /var/lib/boinc-client/account_www.primegrid.com.xml<br />
<br />
=== Banner ===<br />
<br />
[[Bild:Banner PrimeGrid.png]]<br />
<br />
=== Weblinks ===<br />
<br />
* [http://www.primegrid.com primegrid.com] - Internetpräsenz des Projekts<br />
* [http://www.primegrid.com/orig/team_display.php?teamid=499 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=POEM@HOME&diff=5470POEM@HOME2011-07-13T19:54:20Z<p>TAL9000: /* Besonderheiten */ Alte System werte entfernt und zusammengefasst</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|Forschungszentrum Karlsruhe}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Oktober 2007}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.fzk.de/poem/|Name=boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.fzk.de/poem/team_display.php?teamid=172}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=POEM@HOME}}<br />
|}<br />
<br />
'''POEM@HOME''' ('''P'''rotein '''O'''ptimization with '''E'''nergy '''M'''ethods) befasst sich mit der Vorhersage von Proteinstrukturen, der Interaktion von Proteinen und den Krankheiten, welche durch Proteinfehlfunktionen hervorgerufen werden. Die Ergebnisse werden auch für die Entwicklung neuer Medikamente genutzt.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Proteine sind die Motoren des Lebens. Es sind große Moleküle, bestehend aus zehntausenden Atomen, die einzigartige dreidimensionale Strukturen bilden, welche die Funktion des Proteins bestimmt.<br />
<br />
Zu den Funktionen der Proteine zählen Stoffwechsel, Energieumwandlung (z. B. Photosynthese) und -transport, Signalverarbeitung im Gehirn, Immunreaktionen und vieles mehr. Fehlfunktionen von Proteinen stehen oft im Zusammenhang mit Krankheiten. Bis heute sind tausende Proteine bekannt, die mit Krankheiten in Verbindung stehen, aber von vielen ist die Struktur nicht bekannt.<br />
<br />
Um Proteine zu verstehen, beeinflussen oder gar zu designen, ist es nötig die Proteinstruktur zu kennen und verstehen. Die Struktur auf experimentellem Weg zu ermitteln, ist aber sehr schwierig. Einfacher ist es, die chemische Zusammensetzung eines Proteins zu ermitteln.<br />
<br />
POEM@HOME versucht mittels Berechnungen:<br />
* die Struktur von Proteinen zu ermitteln, die das Protein hat wenn es aktiv ist.<br />
* die Signalverarbeitung bei der Interaktion von Proteinen untereinander zu verstehen.<br />
* Krankheiten zu verstehen, die mit Fehlfunktionen und Verklumpungen von Proteinen zusammenhängen.<br />
* neue Arzneistoffe auf Basis der räumlichen Struktur von biologisch wichtigen Proteinen zu entwickeln.<br />
<br />
POEM@HOME nutzt einen neuen Ansatz, der sich sehr gut für [[Distributed Computing]] eignet. Er basiert auf der Arbeit von [http://de.wikipedia.org/wiki/Anfinsen C. B. Anfinsen], für welche er 1972 den Nobelpreis für Chemie bekommen hat.<br />
<br />
POEM@HOME ist ein rein wissenschaftliches, nicht-kommerzielles Projekt. Alle substanziellen Ergebnisse werden in internationalen Fachmagazinen mit einer Danksagung an die Teilnehmer des Projekts veröffentlicht.<ref>[http://boinc.fzk.de/poem/ Our project in detail]</ref><br />
<br />
== Erfolge des Projekts ==<br />
<br />
Auf der Homepage des Projektes wurden die ersten Berichte über Ergenisse veröffentlicht: [http://boinc.fzk.de/poem/index.php?section=resultpage Results December 2007]<br />
Unter anderem sind dies erfolgreiche gefaltete Modelle von HI-Viren.<br />
<br />
Eine Übersicht der Veröffentlichungen die in Zusammenhang mit POEM@HOME stehen, bietet [http://iwrwww1.fzk.de/biostruct/People/ww_pub.htm Publications].<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 19.10.2007 mit einem eigenen Team an POEM@HOME teil und erreichte am 24.10.2007 Platz 1. Im Verlauf des [[Glossar/Race|Races]] ''The bigger POEMathon'' verlor das Team am 23.06.2008 den ersten Platz an das Team Electronic Sports League (ESL), konnte ihn aber am 22.02.2009 nach einer dreimonatigen Aufholjagd morgens gegen 6 Uhr MEZ zurückerobern.<br />
<br />
POEM@HOME wurde bisher zweimal zum [[Projekt des Monats]] gewählt: Im März und November 2008.<br />
<br />
=== Milestones ===<br />
* 05.12.2007: 1 Million [[Credits]]<br />
* 12.02.2008: 5 Millionen Credits<br />
* 06.03.2008: 10 Millionen Credits<br />
* 29.03.2008: 20 Millionen Credits<br />
* 01.06.2008: 30 Millionen Credits<br />
* 16.06.2008: 40 Millionen Credits<br />
* 01.07.2008: 50 Millionen Credits<br />
* 16.09.2008: 60 Millionen Credits<br />
* 23.10.2008: 70 Millionen Credits<br />
* 11.12.2008: 80 Millionen Credits<br />
* 31.12.2008: 90 Millionen Credits<br />
* 18.01.2009: 100 Millionen Credits<br />
* 03.02.2009: 110 Millionen Credits<br />
* 17.02.2009: 120 Millionen Credits<br />
* 02.03.2009: 130 Millionen Credits<br />
* 30.03.2009: 140 Millionen Credits<br />
* 04.05.2009: 150 Millionen Credits<br />
* 20.06.2009: 160 Millionen Credits<br />
* 22.09.2009: 170 Millionen Credits<br />
* 18.05.2010(?): 200 Millionen Credits<br />
<br />
== Teilnahme ==<br />
<br />
Die Anmelde-URL lautet: [http://boinc.fzk.de/poem/ http://boinc.fzk.de/poem/]<br />
<br />
Das Projekt wird über die [[Portal:BOINC/Beschreibung|BOINC]]-Plattform betrieben, es sind derzeit keine Besonderheiten beim Betrieb oder der Konfiguration bekannt.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 2,8 MB. Bei jeder Work-Unit werden ca. 100 KB herunter- und ~100 KB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* POEM@HOME vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Das [[Quorum]] beträgt 1. Eine [[Work-Unit]] muss somit nur von einem Rechner erfolgreich berechnet werden.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden u.U. nicht mehr akzeptiert. Die Berechnung sollte also innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 500 pro Tag und CPU.<br />
* Die Work-Units (verschiedene Serien) unterscheiden sich in Berechnungsdauer sowie Speicherauslastung. Zudem ist auch die Berechnungsdauer einer Serie alles andere als konstant. WUs eines Typs bekommen immer die gleiche Anzahl Credits. Die Creditvergabe ändert sich aber von Serie zu Serie. Manche WU-Serien profitieren von mehr L2-Cache, andere von der RAM Bandbreite.<br />
* Im September 2010 hat das Projekt neue Anwendungen (POEM++) veröffentlicht, die auf OpenCL basieren. Neben CPUs sollen in naher Zukunft auch GPUs unterstützt werden. Die neuen Clients (für CPU) sollen die Berechnungen ca. 7x schneller berechnen können. Da auch die Work Units wachsen sollen, werden die Berechnungszeiten nicht um den gleichen Faktor kürzer.<br />
* Die POEM++ App ist unter Linux 64bit Systemen erheblich leistungsfähiger und rechnet im Mittel zwischen 25-33% schneller, als unter Windows 32/64Bit Systemen.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_POEM.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.fzk.de/poem/ boinc.fzk.de/poem/] - Internetpräsenz des Projekts<br />
* [http://boinc.fzk.de/poem/team_display.php?teamid=172 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Einstein@Home&diff=5468Einstein@Home2011-07-02T10:10:08Z<p>TAL9000: /* Besonderheiten */ CUDA App hinzugefügt + K</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Astronomie & Astrophysik}}<br />
|-<br />
| {{Steckbrief Betreiber|LIGO Scientific Collaboration}}<br />
|-<br />
| {{Steckbrief Nationalität|International|int}}<br />
|-<br />
| {{Steckbrief Start|Februar 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://einstein.phys.uwm.edu|Name=einstein.phys.uwm.edu}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://einstein.phys.uwm.edu}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://einstein.phys.uwm.edu/team_display.php?teamid=454}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Einstein@Home}}<br />
|}<br />
<br />
'''Einstein@Home''' ist ein Projekt der LIGO Scientific Collaboration, das das All nach Gravitationswellen absucht.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Im Rahmen des Projekts werden vom amerikanischen [http://de.wikipedia.org/wiki/LIGO Laser Interferometer Gravitational wave Observatory] und dem deutschen [http://de.wikipedia.org/wiki/GEO600 GEO600] gesammelte Daten nach Gravitationswellen von Pulsaren und anderen kompakten schnell rotierenden Sternen mit einer extrem hohen Dichte und nicht-rotationssymmetrischen Formen durchsucht. Der Allgemeinen Relativitätstheorie zufolge krümmen Sterne mit den genannten Eigenschaften die Raumzeit um sie herum so stark, dass dabei messbare Gravitationswellen entstehen.<br />
<br />
Der erstmalige direkte Nachweis der Existenz von Gravitationswellen soll hierbei dadurch gelingen, dass die periodische Längenänderung von zwei rechtwinklig angeordneten Messstrecken mittels Laser-Interferometrie bestimmt wird. Der Effekt ist aber so schwach, dass eine 4km lange Messstrecke zwischen zwei Testmassen sich nur um den Bruchteil eines Proton-Durchmessers verringert. Um diesen Effekt aus einem Hintergrundrauschen von verschiedenen Störeinflüssen herauszufiltern bedarf es aufwendige mathematische Verfahren und vor allem immense Rechenleistung.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Im April 2008 wurden die ersten Ergebnisse formell in einer wissenschaftlichen Abhandlung [http://arxiv.org/pdf/0804.1747v1 veröffentlicht]. <br />
Zwar ist bisher der direkte Nachweis der Existenz von Gravitationswellen nicht gelungen, doch liefert das Experiment in jedem Fall eine neue Erkenntnis in Form einer Abschätzung der maximalen Stärke von Gravitationswellen des genannten Typs zum Zeitpunkt der Messung.<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 09.02.2005 mit einem eigenen Team an Einstein@Home teil. Am 25.02.2008 wurde die Marke von 20 Millionen [[Credits]] überschritten.<br />
<br />
Einstein@Home wurde für den Mai 2008 zum [[Projekt des Monats]] gewählt, zu dessen Ende am 31. Mai schließlich 50 Millionen Credits erreicht wurden.<br />
<br />
== Teilnahme ==<br />
Möchte man das Einstein@Home Projekt aktiv unterstützen, muss zuerst ein BOINC Client installiert werden. Ist dies erfolgreich abgeschlossen, kann nun das Projekt über den Assistenten hinzugefügt werden. Als Projektadresse muss ''http://einstein.phys.uwm.edu/'' eingegeben werden. Nach der Angabe des Accounts werden die [[Work-Unit|Work-Units]] sowie der dazugehörige Client auf den PC übertragen und die Berechnungen gestartet.<br />
<br />
Unter dieser Adresse kann man anschließend unserem Team beitreten: [http://einstein.phys.uwm.edu/create_account_form.php?teamid=454 Team Planet 3DNow!]<br />
<br />
Der Initialdownload kann bis zu 500 MB gross sein. Die Datenmenge beim Up/Download beträgt ~1-4 MB pro Work-Unit.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* Einstein@home vergibt [[Credits#Fixe Credits|fixe Credits]]. Bei CUDA Workunits 500 Cr und bei CPU Workunits 251,1 Cr.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor alle Rechner Credits gutgeschrieben bekommen.<br />
* Die WU Quota wird vom Projekt dynamisch im Bereich von 1-16 WUs pro Core und Tag gesetzt. Für PCs die schneller Ergebnisse zurückliefern (niedrige average turnaround time) wird diese hoch gesetzt.<br />
* Einstein@home profitiert von Befehlssatzerweiterungen (bisher [[SSE]] und höher).<br />
* Es wird die [[BOINC]]-Funktion "[http://de.wikipedia.org/wiki/Boinc#Funktionen Locality Scheduling]" verwendet. Der Rechner bekommt bevorzugt WUs zugeteilt zu denen er bereits benötigte Datenpakete bekommen hat. Bei Abschluss einer Projektphase bekommt der Client dann vom Projekt einen Löschbefehl für die nicht benötigen WU Daten. Durch diese Funktion wird einerseits die Datenmenge reduziert, jedoch mehr Platz auf der Festplatte gebraucht.<br />
* Das Projekt bietet momentan keine "Optimierte Anwendungen" an. [http://einstein.phys.uwm.edu/app_test.php Einstein Beta Applications]<br />
* Das Unterprojekt Binary Radio Pulsar Search hat eine CUDA App die noch wesentlich Rechenzeit der CPU benötigt. Eine schnellerer Berechnung ergibt sich trotzdem durch die teilweise Auslagerung an die GPU. Es müssen mind. 300MB Video RAM zur Verfügung stehen.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Einstein.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://einstein.phys.uwm.edu einstein.phys.uwm.edu] - Internetpräsenz des Projekts<br />
* [http://einstein.phys.uwm.edu/team_display.php?teamid=454 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Astronomie & Astrophysik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=MilkyWay@home&diff=5467MilkyWay@home2011-07-02T10:03:49Z<p>TAL9000: Besonderheiten hinzugefügt + Änderungen Optimierte App</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Astronomie & Astrophysik}}<br />
|-<br />
| {{Steckbrief Betreiber|Rensselaer Computer Science Department}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|Juli 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://milkyway.cs.rpi.edu/milkyway/|Name=milkyway.cs.rpi.edu/milkyway/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://milkyway.cs.rpi.edu/milkyway/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|-|x|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|SPARC|-|-|-|-|x}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://milkyway.cs.rpi.edu/milkyway/team_display.php?teamid=58}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=MilkyWay@home}}<br />
|}<br />
<br />
'''MilkyWay@home''' ist ein Projekt des Rensselaer Computer Science Department in New York, welches die Entwicklung der Milchstraße modelliert.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Galaxien unterliegen einem ständigen Wandel und verschmelzen häufig in einander zu größeren Galaxien (z.B. [http://www.sdss.org/iotw/StephensQuintet.jpg hier] und [http://www.sdss.org/iotw/NGC5257.jpg hier]). Eine Galaxie ist ein sehr großes Sternsystem, das vor nämlich aus einer Ansammlung von Materie wie Sternen und Planetensystemen, Gasnebeln, Staubwolken und sonstigen Objekten besteht. Die Milchstraße ist als Forschungsobjekt deshalb so interessant, da es die einzige Galaxie ist, bei der die Wissenschaft drei Dimensionen studieren kann. Insgesamt besteht die Milchstraße aus 300 Milliarden Sterne und besitzt einen Durchmesser von ca. 100.000 Lichtjahren.<br />
<br />
1994 entdeckte Rodrigo Ibata, dass die Milchstraße mit der Sagittarius Zwerg Ellipsoiden Galaxie verschmelzen wird. Aufgrund der kleinen Größe der Sagittarius Galaxie im Vergleich zur Milchstraße, wird der Sagittarius-Zwerg von den Gezeitenkräften regelrecht zerrissen. Durch die stärkeren Gravitationskräfte der Milchstraße, werden beim auseinander reißen des Sagittarius-Zwerg lange Gezeitenströme erzeugt, die dem Kern des Sagittarius-Zwergs folgen werden. Zum besseren Verständnis befindet sich [http://www.astro.wesleyan.edu/~kvj/surf.mpg hier] eine Simulation des Vorgangs.<br />
<br />
Durch die Gezeitenströme erhält die Wissenschaft Einblicke in die Bewegungen der Sterne, da durch die Ströme erkennbar wird, wo ein Stern ist und wohin er geht. Auf diese Weise hinterlassen Ströme eine Karte, die es erlaubt, das Gravitationspotential der Milchstraße zu studieren. Da 90% des Potentials der Dunklen Materie zugeschrieben werden kann, kann die Verteilung der Dunklen Materie in der Milchstraße gut berücksichtigt werden. Das Forschungsteam von MilkyWay@home hat eine Methode entwickelt, welche die Eigenschaften der Gezeitentrümmer bei der Galaxienkollision isoliert und festlegt.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Bisher wurde folgende Veröffentlichung vom Projekt herausgegeben:<br />
* 27.01.2008 [http://www.cs.rpi.edu/~deselt/hcw2008camera.pdf Asynchronous Genetic Search for Scientific Modeling on Large-Scale Heterogeneous Environments]<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 03.09.2007 mit einem eigenen Team an MilkyWay@home teil.<br />
<br />
=== Milestones ===<br />
* 18.11.2007: 1.000 [[Credits]]<br />
* 24.02.2008: 100.000 Credits<br />
* 11.05.2008: 500.000 Credits<br />
* 13.07.2008: 1 Million Credits<br />
* 11.08.2008: 2 Millionen Credits<br />
* 21.09.2008: 5 Millionen Credits<br />
* 30.11.2008: 30 Millionen Credits<br />
* 03.03.2009: 60 Millionen Credits<br />
* 02.06.2009: 100 Millionen Credits<br />
<br />
== Teilnahme ==<br />
Die Anmelde-URL lautet: http://milkyway.cs.rpi.edu/milkyway/<br />
<br />
Da neue [[Work-Unit|WUs]] auf den Ergebnissen vorangehender Berechnungen aufbauen, gibt das Projekt pro Maschine maximal 8 WUs pro Kern am Stück aus.<br />
<br />
== Optimierte Anwendungen ==<br />
Das Projekt ist aufgrund der Art der Rechnungen vorzüglich für die intensive Nutzung von SSE2 und auch für die Berechnung auf GPUs geeignet. Beides kann über die Installation optimierter Anwendungen erreicht werden. Die Verwendung von GPUs kann bisher nur mit neueren ATI-Karten unter Windows erfolgen. Die Unterstützung doppelter Genauigkeit ist momentan Pflicht, welche nur ATIs HD3800er, HD4700er und HD4800er Grafikkarten (und nvidias GT'''X'''200er Serie) bieten. Das Projekt arbeitet allerdings bereits an einer Version für nvidias CUDA und an einem Ableger auch für einfache Genauigkeit. Die Installation erfolgt analog zu jeder anderen optimierten Anwendung:<br />
:#BOINC ''komplett'' beenden, es dürfen keine Anwendungen, etc. mehr aktiv sein. Es wird davon ausgegangen, dass BOINC und Milkyway bereits funktionierend installiert sind.<br />
:#Die zum eigenen System passende Anwendung auswählen und downloaden: [http://www.planet3dnow.de/vbulletin/showthread.php?t=358083 Windows Versionen @P3d] oder [http://www.zslip.com Windows + Linux-Versionen]<br />
:#Den Ordner milkyway.cs.rpi.edu_milkyway'' auf dem eigenen System suchen und öffnen.<br />
:#Die entsprechenden im zuvor heruntergeladenen Archiv enthaltenen Dateien dorthin entpacken.<br />
:#BOINC wieder starten und ggf. Prüfen ob Anpassungen erfolgreich.<br />
<br />
Insbesondere bei Einsatz einer ATI-GPU sind einige Dinge zu beachten, da ATIs Stream noch nicht von älteren BOINC-Client unterstützt wird, die Anwendung also wie eine normale CPU-Anwendung läuft. Weiterhin gibt es insbesondere unter WindowsXP Probleme mit einigen Treiberversionen.<br />
<br />
Die aktuelle BOINC Version und die Standard App ermöglichen schon eine hohe Ausnutzung der GPUs, durch die zusätzlichen Parameter der Optimierten App ist eine besser Auslastung möglich. <br />
Das Readme und [http://www.planet3dnow.de/vbulletin/showthread.php?t=358083 Forum Thread P3d] bietet zusätzliche Informationen und Hilfe.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* MilkyWay vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Das [[Quorum]] beträgt 1. Eine Work-Unit muss nur von einem Rechnern erfolgreich berechnet werden <br />
* Die [[Deadline]] bei diesem Projekt beträgt 12 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Für GPU Nutzung sind Double Precision und mind. 384 MB Video RAM nötig. siehe [http://milkyway.cs.rpi.edu/milkyway/forum_thread.php?id=2457#49250 GPU Requirements]<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_MilkyWay.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://milkyway.cs.rpi.edu/milkyway/ milkyway.cs.rpi.edu/milkyway/] - Internetpräsenz des Projekts<br />
* [http://milkyway.cs.rpi.edu/milkyway/team_display.php?teamid=58 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Astronomie & Astrophysik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=5459Spinhenge@home2011-06-10T22:39:46Z<p>TAL9000: /* Besonderheiten */ deadline 14d</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja (nicht bei nanoparticle)}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz, welcher erst am 7. Oktober 2009 zurückgewonnen werden konnte.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boinc.berkeley.edu/download_all.php Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 2 MB sowie bis zu 3MB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
[http://spin.fh-bielefeld.de/spin_graphics_libs.php Eine Auflistung der benötigten Bibliotheken bietet Spinhenge auf seiner Webseite]<br />
Bei 64-Bit-Systemen sind die 32-Bit-Bibliotheken zu installieren!<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden ab wuid=53463706, 200 Credits pro WU gut geschrieben<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 14 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die Wartezeit zwischen Server anfragen beträgt 15 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 100 pro Tag und Prozessorkern.<br />
* Spinhenge@home hat eine geringen Arbeitsspeicherbelastung von ca. 10 MB, dadurch eignet sich Spinhenge im Vergleich mit anderen Projekten sehr gut für Rechner mit wenig RAM.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=SIMAP&diff=5450SIMAP2011-05-21T19:33:05Z<p>TAL9000: Nationalität da Server nun in Wien</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|Universität Wien (ehmals TU München}}<br />
|-<br />
| {{Steckbrief Nationalität|Österreich|at}}<br />
|-<br />
| {{Steckbrief Start|Dezember 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boincsimap.org/boincsimap/|Name=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC/PS3|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|IA64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Alpha|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Sparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|UltraSparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 32Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 64Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=SIMAP}}<br />
|}<br />
<br />
'''SIMAP''' ('''Si'''milarity '''Ma'''trix of '''P'''roteins) ist ein Projekt der TU München, welches der Erstellung einer Datenbank dient, in der die Ähnlichkeiten zwischen Proteinsequenzen gespeichert werden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Bisher sind mehrere Millionen verschiedene Proteinsequenzen bekannt - zuviel um jedes Protein einzeln eingehend zu untersuchen. Glücklicherweise haben Proteine, die sich ähneln, meist auch ähnliche Eigenschaften und Funktionen. Deshalb überträgt man experimentelle Erkenntnisse, die für ein bestimmtes Protein gewonnen wurden, auch auf dessen Verwandte.<br />
<br />
Die Ähnlichkeit von Proteinen wird nicht nur für die Funktionsvorhersage von Proteinen genutzt, sondern auch für viele weitere Methoden der Bioinformatik. Die Ähnlichkeiten nicht jedes Mal neu berechnen zu müssen, würde eine erhebliche Zeitersparnis bedeuten.<br />
<br />
Jedoch fehlte bisher ein komplettes Verzeichnis aller Proteine und ihrer Ähnlichkeiten untereinander. Das bisher größte Verzeichnis dieser Art, das Projekt clustr am European Bioinformatics Institute, umfasst derzeit ca. 800.000 von ca. 4 Millionen bekannten Proteinen.<br />
<br />
SIMAP erstellt dagegen ein Verzeichnis ''aller'' bekannten Proteine und stellt es Forschung und Lehre vollständig kostenlos zur Verfügung. Man kann sich das Projekt als eine Matrix mit ca. 4 Millionen Spalten und ebenso vielen Zeilen vorstellen. Der Inhalt der Matrix ist symmetrisch, d. h. ist Protein 1 dem Protein 2 ähnlich, so ist auch Protein 2 dem Protein 1 ähnlich.<br />
<br />
Ständig werden neue Proteine entdeckt und auch die Modelle werden ständig erweitert und aktualisiert. Das Verzeichnis aktuell zu halten, erfordert deshalb einen enormen Rechenaufwand, dem die vorhandenen Hochleistungsrechner der TU München nicht gewachsen sind. Deshalb wird auf [[Distributed Computing]] gesetzt.<br />
<br />
Betrieben wird SIMAP als Gemeinschaftsprojekt des GSF-Forschungszentrums für Gesundheit und Umwelt in Neuherberg bei München und der Technischen Universität München, Wissenschaftszentrum Weihenstephan. Ansprechpartner ist Thomas Rattei vom Lehrstuhl für Genomorientierte Bioinformatik.<ref>[http://boinc.bio.wzw.tum.de/boincsimap/project.php Über das SIMAP Projekt]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Dank des grossen Interesses der internationalen Cruncher-Gemeinschaft konnten die Datenbestände des Projekts bereits abgearbeitet werden.<br />
Inzwischen werden meist nur noch zu Beginn jeden Monats neue Proteinsequenzen zur Berechnung verteilt werden.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 13.06.2006 mit einem eigenen Team an SIMAP teil und erreichte am 11.09.2006 Platz 1.<br />
<br />
Im Oktober 2007 konnte Planet3Dnow! als erstes Team die "Schallmauer" von 10 Millionen [[Credits]] überschreiten.<br />
<br />
SIMAP wurde für den Februar 2008 zum [[Projekt des Monats]] gewählt. Im Verlauf dieser Aktion wurde die Marke von 25 Millionen Credits erreicht.<br />
<br />
Am 12.12. 2010 überschritt das Team die Marke von 100 Millionen errechneten Credits.<br />
<br />
== Teilnahme ==<br />
<br />
Um an SIMAP teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
<br />
SIMAP ist auf nahezu allen Computern lauffähig, profitiert allerdings - im Gegensatz zu vielen anderen Projekten - von erweiterten CPU Befehlssätzen wie [[SSE]].<br />
<br />
Clients sind für Windows, Linux, Mac und etliche Unix-Derivate wie etwa Solaris und BSD verfügbar.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 1,5 MB. Bei jeder [[Work-Unit]] werden ca. 2 MB herunter- und 0,5 MB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* SIMAP vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Es gibt zwei verschieden Anwendungen: SIMAP zum Proteinsequenzenvergleich und HMMER (''Hidden Markov Models'') für deren Domänen.<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen ~30min (A64 2,5GHz) und ~3h (P3 1GHz).<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden, bevor diese Rechner Credits gut geschrieben bekommen.<br />
* Die [[Deadline]] bei diesem Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 300 pro Tag und Host. <br />
* SIMAP profitiert wenig von einer hohen Speicherbandbreite und einem großen CPU-Cache, nutzt aber Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.).<br />
* Für Rechner, die kein SSE unterstützen (i386 wie z. B. AMD Athlon Thunderbird), können [http://boincsimap.org/boincsimap/appdownloads.php angepasste Anwendungen] manuell installiert werden. Für Linux und Windows gibt es 64-Bit-Clients, die ca. 10-15% schneller sind als der Standard-Client für Windows. Auch für andere Sonderfälle gibt es Anwendungen.<br />
* SIMAP ist ein periodisches Projekt. Es gibt hauptsächlich am Monatsanfang WUs, deren Menge je nach Umfang des Updates des Verzeichnis schwankt. Um eine gleichmäßigere Verteilung zu erhalten werden ~2000 neue WUs dann alle 10 Minuten zum Download freigegeben.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner SIMAP.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boincsimap.org/boincsimap/ boincsimap.org/boincsimap/] - Internetpräsenz des Projekts<br />
* [http://boincsimap.org/boincsimap/team_display.php?teamid=783 Planet 3DNow! Teamstatistik]<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=SIMAP&diff=5449SIMAP2011-05-21T19:23:51Z<p>TAL9000: /* Weblinks */ kK</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|TU München (Fachrichtung Bioinformatik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Dezember 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boincsimap.org/boincsimap/|Name=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC/PS3|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|IA64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Alpha|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Sparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|UltraSparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 32Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 64Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=SIMAP}}<br />
|}<br />
<br />
'''SIMAP''' ('''Si'''milarity '''Ma'''trix of '''P'''roteins) ist ein Projekt der TU München, welches der Erstellung einer Datenbank dient, in der die Ähnlichkeiten zwischen Proteinsequenzen gespeichert werden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Bisher sind mehrere Millionen verschiedene Proteinsequenzen bekannt - zuviel um jedes Protein einzeln eingehend zu untersuchen. Glücklicherweise haben Proteine, die sich ähneln, meist auch ähnliche Eigenschaften und Funktionen. Deshalb überträgt man experimentelle Erkenntnisse, die für ein bestimmtes Protein gewonnen wurden, auch auf dessen Verwandte.<br />
<br />
Die Ähnlichkeit von Proteinen wird nicht nur für die Funktionsvorhersage von Proteinen genutzt, sondern auch für viele weitere Methoden der Bioinformatik. Die Ähnlichkeiten nicht jedes Mal neu berechnen zu müssen, würde eine erhebliche Zeitersparnis bedeuten.<br />
<br />
Jedoch fehlte bisher ein komplettes Verzeichnis aller Proteine und ihrer Ähnlichkeiten untereinander. Das bisher größte Verzeichnis dieser Art, das Projekt clustr am European Bioinformatics Institute, umfasst derzeit ca. 800.000 von ca. 4 Millionen bekannten Proteinen.<br />
<br />
SIMAP erstellt dagegen ein Verzeichnis ''aller'' bekannten Proteine und stellt es Forschung und Lehre vollständig kostenlos zur Verfügung. Man kann sich das Projekt als eine Matrix mit ca. 4 Millionen Spalten und ebenso vielen Zeilen vorstellen. Der Inhalt der Matrix ist symmetrisch, d. h. ist Protein 1 dem Protein 2 ähnlich, so ist auch Protein 2 dem Protein 1 ähnlich.<br />
<br />
Ständig werden neue Proteine entdeckt und auch die Modelle werden ständig erweitert und aktualisiert. Das Verzeichnis aktuell zu halten, erfordert deshalb einen enormen Rechenaufwand, dem die vorhandenen Hochleistungsrechner der TU München nicht gewachsen sind. Deshalb wird auf [[Distributed Computing]] gesetzt.<br />
<br />
Betrieben wird SIMAP als Gemeinschaftsprojekt des GSF-Forschungszentrums für Gesundheit und Umwelt in Neuherberg bei München und der Technischen Universität München, Wissenschaftszentrum Weihenstephan. Ansprechpartner ist Thomas Rattei vom Lehrstuhl für Genomorientierte Bioinformatik.<ref>[http://boinc.bio.wzw.tum.de/boincsimap/project.php Über das SIMAP Projekt]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Dank des grossen Interesses der internationalen Cruncher-Gemeinschaft konnten die Datenbestände des Projekts bereits abgearbeitet werden.<br />
Inzwischen werden meist nur noch zu Beginn jeden Monats neue Proteinsequenzen zur Berechnung verteilt werden.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 13.06.2006 mit einem eigenen Team an SIMAP teil und erreichte am 11.09.2006 Platz 1.<br />
<br />
Im Oktober 2007 konnte Planet3Dnow! als erstes Team die "Schallmauer" von 10 Millionen [[Credits]] überschreiten.<br />
<br />
SIMAP wurde für den Februar 2008 zum [[Projekt des Monats]] gewählt. Im Verlauf dieser Aktion wurde die Marke von 25 Millionen Credits erreicht.<br />
<br />
Am 12.12. 2010 überschritt das Team die Marke von 100 Millionen errechneten Credits.<br />
<br />
== Teilnahme ==<br />
<br />
Um an SIMAP teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
<br />
SIMAP ist auf nahezu allen Computern lauffähig, profitiert allerdings - im Gegensatz zu vielen anderen Projekten - von erweiterten CPU Befehlssätzen wie [[SSE]].<br />
<br />
Clients sind für Windows, Linux, Mac und etliche Unix-Derivate wie etwa Solaris und BSD verfügbar.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 1,5 MB. Bei jeder [[Work-Unit]] werden ca. 2 MB herunter- und 0,5 MB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* SIMAP vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Es gibt zwei verschieden Anwendungen: SIMAP zum Proteinsequenzenvergleich und HMMER (''Hidden Markov Models'') für deren Domänen.<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen ~30min (A64 2,5GHz) und ~3h (P3 1GHz).<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden, bevor diese Rechner Credits gut geschrieben bekommen.<br />
* Die [[Deadline]] bei diesem Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 300 pro Tag und Host. <br />
* SIMAP profitiert wenig von einer hohen Speicherbandbreite und einem großen CPU-Cache, nutzt aber Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.).<br />
* Für Rechner, die kein SSE unterstützen (i386 wie z. B. AMD Athlon Thunderbird), können [http://boincsimap.org/boincsimap/appdownloads.php angepasste Anwendungen] manuell installiert werden. Für Linux und Windows gibt es 64-Bit-Clients, die ca. 10-15% schneller sind als der Standard-Client für Windows. Auch für andere Sonderfälle gibt es Anwendungen.<br />
* SIMAP ist ein periodisches Projekt. Es gibt hauptsächlich am Monatsanfang WUs, deren Menge je nach Umfang des Updates des Verzeichnis schwankt. Um eine gleichmäßigere Verteilung zu erhalten werden ~2000 neue WUs dann alle 10 Minuten zum Download freigegeben.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner SIMAP.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boincsimap.org/boincsimap/ boincsimap.org/boincsimap/] - Internetpräsenz des Projekts<br />
* [http://boincsimap.org/boincsimap/team_display.php?teamid=783 Planet 3DNow! Teamstatistik]<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=SIMAP&diff=5448SIMAP2011-05-21T19:22:48Z<p>TAL9000: /* Besonderheiten */ noch ne URL aktualisiert</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|TU München (Fachrichtung Bioinformatik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Dezember 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boincsimap.org/boincsimap/|Name=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC/PS3|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|IA64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Alpha|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Sparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|UltraSparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 32Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 64Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=SIMAP}}<br />
|}<br />
<br />
'''SIMAP''' ('''Si'''milarity '''Ma'''trix of '''P'''roteins) ist ein Projekt der TU München, welches der Erstellung einer Datenbank dient, in der die Ähnlichkeiten zwischen Proteinsequenzen gespeichert werden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Bisher sind mehrere Millionen verschiedene Proteinsequenzen bekannt - zuviel um jedes Protein einzeln eingehend zu untersuchen. Glücklicherweise haben Proteine, die sich ähneln, meist auch ähnliche Eigenschaften und Funktionen. Deshalb überträgt man experimentelle Erkenntnisse, die für ein bestimmtes Protein gewonnen wurden, auch auf dessen Verwandte.<br />
<br />
Die Ähnlichkeit von Proteinen wird nicht nur für die Funktionsvorhersage von Proteinen genutzt, sondern auch für viele weitere Methoden der Bioinformatik. Die Ähnlichkeiten nicht jedes Mal neu berechnen zu müssen, würde eine erhebliche Zeitersparnis bedeuten.<br />
<br />
Jedoch fehlte bisher ein komplettes Verzeichnis aller Proteine und ihrer Ähnlichkeiten untereinander. Das bisher größte Verzeichnis dieser Art, das Projekt clustr am European Bioinformatics Institute, umfasst derzeit ca. 800.000 von ca. 4 Millionen bekannten Proteinen.<br />
<br />
SIMAP erstellt dagegen ein Verzeichnis ''aller'' bekannten Proteine und stellt es Forschung und Lehre vollständig kostenlos zur Verfügung. Man kann sich das Projekt als eine Matrix mit ca. 4 Millionen Spalten und ebenso vielen Zeilen vorstellen. Der Inhalt der Matrix ist symmetrisch, d. h. ist Protein 1 dem Protein 2 ähnlich, so ist auch Protein 2 dem Protein 1 ähnlich.<br />
<br />
Ständig werden neue Proteine entdeckt und auch die Modelle werden ständig erweitert und aktualisiert. Das Verzeichnis aktuell zu halten, erfordert deshalb einen enormen Rechenaufwand, dem die vorhandenen Hochleistungsrechner der TU München nicht gewachsen sind. Deshalb wird auf [[Distributed Computing]] gesetzt.<br />
<br />
Betrieben wird SIMAP als Gemeinschaftsprojekt des GSF-Forschungszentrums für Gesundheit und Umwelt in Neuherberg bei München und der Technischen Universität München, Wissenschaftszentrum Weihenstephan. Ansprechpartner ist Thomas Rattei vom Lehrstuhl für Genomorientierte Bioinformatik.<ref>[http://boinc.bio.wzw.tum.de/boincsimap/project.php Über das SIMAP Projekt]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Dank des grossen Interesses der internationalen Cruncher-Gemeinschaft konnten die Datenbestände des Projekts bereits abgearbeitet werden.<br />
Inzwischen werden meist nur noch zu Beginn jeden Monats neue Proteinsequenzen zur Berechnung verteilt werden.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 13.06.2006 mit einem eigenen Team an SIMAP teil und erreichte am 11.09.2006 Platz 1.<br />
<br />
Im Oktober 2007 konnte Planet3Dnow! als erstes Team die "Schallmauer" von 10 Millionen [[Credits]] überschreiten.<br />
<br />
SIMAP wurde für den Februar 2008 zum [[Projekt des Monats]] gewählt. Im Verlauf dieser Aktion wurde die Marke von 25 Millionen Credits erreicht.<br />
<br />
Am 12.12. 2010 überschritt das Team die Marke von 100 Millionen errechneten Credits.<br />
<br />
== Teilnahme ==<br />
<br />
Um an SIMAP teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
<br />
SIMAP ist auf nahezu allen Computern lauffähig, profitiert allerdings - im Gegensatz zu vielen anderen Projekten - von erweiterten CPU Befehlssätzen wie [[SSE]].<br />
<br />
Clients sind für Windows, Linux, Mac und etliche Unix-Derivate wie etwa Solaris und BSD verfügbar.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 1,5 MB. Bei jeder [[Work-Unit]] werden ca. 2 MB herunter- und 0,5 MB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* SIMAP vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Es gibt zwei verschieden Anwendungen: SIMAP zum Proteinsequenzenvergleich und HMMER (''Hidden Markov Models'') für deren Domänen.<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen ~30min (A64 2,5GHz) und ~3h (P3 1GHz).<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden, bevor diese Rechner Credits gut geschrieben bekommen.<br />
* Die [[Deadline]] bei diesem Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 300 pro Tag und Host. <br />
* SIMAP profitiert wenig von einer hohen Speicherbandbreite und einem großen CPU-Cache, nutzt aber Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.).<br />
* Für Rechner, die kein SSE unterstützen (i386 wie z. B. AMD Athlon Thunderbird), können [http://boincsimap.org/boincsimap/appdownloads.php angepasste Anwendungen] manuell installiert werden. Für Linux und Windows gibt es 64-Bit-Clients, die ca. 10-15% schneller sind als der Standard-Client für Windows. Auch für andere Sonderfälle gibt es Anwendungen.<br />
* SIMAP ist ein periodisches Projekt. Es gibt hauptsächlich am Monatsanfang WUs, deren Menge je nach Umfang des Updates des Verzeichnis schwankt. Um eine gleichmäßigere Verteilung zu erhalten werden ~2000 neue WUs dann alle 10 Minuten zum Download freigegeben.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner SIMAP.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/ boinc.bio.wzw.tum.de/boincsimap/] - Internetpräsenz des Projekts<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=SIMAP&diff=5447SIMAP2011-05-21T19:21:11Z<p>TAL9000: URLs Aktualisiert</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|TU München (Fachrichtung Bioinformatik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Dezember 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boincsimap.org/boincsimap/|Name=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boincsimap.org/boincsimap/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC/PS3|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|IA64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Alpha|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Sparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|UltraSparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 32Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 64Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=SIMAP}}<br />
|}<br />
<br />
'''SIMAP''' ('''Si'''milarity '''Ma'''trix of '''P'''roteins) ist ein Projekt der TU München, welches der Erstellung einer Datenbank dient, in der die Ähnlichkeiten zwischen Proteinsequenzen gespeichert werden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Bisher sind mehrere Millionen verschiedene Proteinsequenzen bekannt - zuviel um jedes Protein einzeln eingehend zu untersuchen. Glücklicherweise haben Proteine, die sich ähneln, meist auch ähnliche Eigenschaften und Funktionen. Deshalb überträgt man experimentelle Erkenntnisse, die für ein bestimmtes Protein gewonnen wurden, auch auf dessen Verwandte.<br />
<br />
Die Ähnlichkeit von Proteinen wird nicht nur für die Funktionsvorhersage von Proteinen genutzt, sondern auch für viele weitere Methoden der Bioinformatik. Die Ähnlichkeiten nicht jedes Mal neu berechnen zu müssen, würde eine erhebliche Zeitersparnis bedeuten.<br />
<br />
Jedoch fehlte bisher ein komplettes Verzeichnis aller Proteine und ihrer Ähnlichkeiten untereinander. Das bisher größte Verzeichnis dieser Art, das Projekt clustr am European Bioinformatics Institute, umfasst derzeit ca. 800.000 von ca. 4 Millionen bekannten Proteinen.<br />
<br />
SIMAP erstellt dagegen ein Verzeichnis ''aller'' bekannten Proteine und stellt es Forschung und Lehre vollständig kostenlos zur Verfügung. Man kann sich das Projekt als eine Matrix mit ca. 4 Millionen Spalten und ebenso vielen Zeilen vorstellen. Der Inhalt der Matrix ist symmetrisch, d. h. ist Protein 1 dem Protein 2 ähnlich, so ist auch Protein 2 dem Protein 1 ähnlich.<br />
<br />
Ständig werden neue Proteine entdeckt und auch die Modelle werden ständig erweitert und aktualisiert. Das Verzeichnis aktuell zu halten, erfordert deshalb einen enormen Rechenaufwand, dem die vorhandenen Hochleistungsrechner der TU München nicht gewachsen sind. Deshalb wird auf [[Distributed Computing]] gesetzt.<br />
<br />
Betrieben wird SIMAP als Gemeinschaftsprojekt des GSF-Forschungszentrums für Gesundheit und Umwelt in Neuherberg bei München und der Technischen Universität München, Wissenschaftszentrum Weihenstephan. Ansprechpartner ist Thomas Rattei vom Lehrstuhl für Genomorientierte Bioinformatik.<ref>[http://boinc.bio.wzw.tum.de/boincsimap/project.php Über das SIMAP Projekt]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Dank des grossen Interesses der internationalen Cruncher-Gemeinschaft konnten die Datenbestände des Projekts bereits abgearbeitet werden.<br />
Inzwischen werden meist nur noch zu Beginn jeden Monats neue Proteinsequenzen zur Berechnung verteilt werden.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 13.06.2006 mit einem eigenen Team an SIMAP teil und erreichte am 11.09.2006 Platz 1.<br />
<br />
Im Oktober 2007 konnte Planet3Dnow! als erstes Team die "Schallmauer" von 10 Millionen [[Credits]] überschreiten.<br />
<br />
SIMAP wurde für den Februar 2008 zum [[Projekt des Monats]] gewählt. Im Verlauf dieser Aktion wurde die Marke von 25 Millionen Credits erreicht.<br />
<br />
Am 12.12. 2010 überschritt das Team die Marke von 100 Millionen errechneten Credits.<br />
<br />
== Teilnahme ==<br />
<br />
Um an SIMAP teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
<br />
SIMAP ist auf nahezu allen Computern lauffähig, profitiert allerdings - im Gegensatz zu vielen anderen Projekten - von erweiterten CPU Befehlssätzen wie [[SSE]].<br />
<br />
Clients sind für Windows, Linux, Mac und etliche Unix-Derivate wie etwa Solaris und BSD verfügbar.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 1,5 MB. Bei jeder [[Work-Unit]] werden ca. 2 MB herunter- und 0,5 MB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* SIMAP vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Es gibt zwei verschieden Anwendungen: SIMAP zum Proteinsequenzenvergleich und HMMER (''Hidden Markov Models'') für deren Domänen.<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen ~30min (A64 2,5GHz) und ~3h (P3 1GHz).<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden, bevor diese Rechner Credits gut geschrieben bekommen.<br />
* Die [[Deadline]] bei diesem Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 300 pro Tag und Host. <br />
* SIMAP profitiert wenig von einer hohen Speicherbandbreite und einem großen CPU-Cache, nutzt aber Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.).<br />
* Für Rechner, die kein SSE unterstützen (i386 wie z. B. AMD Athlon Thunderbird), können [http://boinc.bio.wzw.tum.de/boincsimap/appdownloads.php angepasste Anwendungen] manuell installiert werden. Für Linux und Windows gibt es 64-Bit-Clients, die ca. 10-15% schneller sind als der Standard-Client für Windows. Auch für andere Sonderfälle gibt es Anwendungen.<br />
* SIMAP ist ein periodisches Projekt. Es gibt hauptsächlich am Monatsanfang WUs, deren Menge je nach Umfang des Updates des Verzeichnis schwankt. Um eine gleichmäßigere Verteilung zu erhalten werden ~2000 neue WUs dann alle 10 Minuten zum Download freigegeben.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner SIMAP.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/ boinc.bio.wzw.tum.de/boincsimap/] - Internetpräsenz des Projekts<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=SIMAP&diff=5446SIMAP2011-05-21T19:19:44Z<p>TAL9000: /* Besonderheiten */ Quota wieder hizugefügt</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|TU München (Fachrichtung Bioinformatik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Dezember 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.bio.wzw.tum.de/boincsimap/|Name=boinc.bio.wzw.tum.de/boincsimap/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.bio.wzw.tum.de/boincsimap/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC/PS3|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|IA64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Alpha|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Sparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|UltraSparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 32Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 64Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=SIMAP}}<br />
|}<br />
<br />
'''SIMAP''' ('''Si'''milarity '''Ma'''trix of '''P'''roteins) ist ein Projekt der TU München, welches der Erstellung einer Datenbank dient, in der die Ähnlichkeiten zwischen Proteinsequenzen gespeichert werden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Bisher sind mehrere Millionen verschiedene Proteinsequenzen bekannt - zuviel um jedes Protein einzeln eingehend zu untersuchen. Glücklicherweise haben Proteine, die sich ähneln, meist auch ähnliche Eigenschaften und Funktionen. Deshalb überträgt man experimentelle Erkenntnisse, die für ein bestimmtes Protein gewonnen wurden, auch auf dessen Verwandte.<br />
<br />
Die Ähnlichkeit von Proteinen wird nicht nur für die Funktionsvorhersage von Proteinen genutzt, sondern auch für viele weitere Methoden der Bioinformatik. Die Ähnlichkeiten nicht jedes Mal neu berechnen zu müssen, würde eine erhebliche Zeitersparnis bedeuten.<br />
<br />
Jedoch fehlte bisher ein komplettes Verzeichnis aller Proteine und ihrer Ähnlichkeiten untereinander. Das bisher größte Verzeichnis dieser Art, das Projekt clustr am European Bioinformatics Institute, umfasst derzeit ca. 800.000 von ca. 4 Millionen bekannten Proteinen.<br />
<br />
SIMAP erstellt dagegen ein Verzeichnis ''aller'' bekannten Proteine und stellt es Forschung und Lehre vollständig kostenlos zur Verfügung. Man kann sich das Projekt als eine Matrix mit ca. 4 Millionen Spalten und ebenso vielen Zeilen vorstellen. Der Inhalt der Matrix ist symmetrisch, d. h. ist Protein 1 dem Protein 2 ähnlich, so ist auch Protein 2 dem Protein 1 ähnlich.<br />
<br />
Ständig werden neue Proteine entdeckt und auch die Modelle werden ständig erweitert und aktualisiert. Das Verzeichnis aktuell zu halten, erfordert deshalb einen enormen Rechenaufwand, dem die vorhandenen Hochleistungsrechner der TU München nicht gewachsen sind. Deshalb wird auf [[Distributed Computing]] gesetzt.<br />
<br />
Betrieben wird SIMAP als Gemeinschaftsprojekt des GSF-Forschungszentrums für Gesundheit und Umwelt in Neuherberg bei München und der Technischen Universität München, Wissenschaftszentrum Weihenstephan. Ansprechpartner ist Thomas Rattei vom Lehrstuhl für Genomorientierte Bioinformatik.<ref>[http://boinc.bio.wzw.tum.de/boincsimap/project.php Über das SIMAP Projekt]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Dank des grossen Interesses der internationalen Cruncher-Gemeinschaft konnten die Datenbestände des Projekts bereits abgearbeitet werden.<br />
Inzwischen werden meist nur noch zu Beginn jeden Monats neue Proteinsequenzen zur Berechnung verteilt werden.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 13.06.2006 mit einem eigenen Team an SIMAP teil und erreichte am 11.09.2006 Platz 1.<br />
<br />
Im Oktober 2007 konnte Planet3Dnow! als erstes Team die "Schallmauer" von 10 Millionen [[Credits]] überschreiten.<br />
<br />
SIMAP wurde für den Februar 2008 zum [[Projekt des Monats]] gewählt. Im Verlauf dieser Aktion wurde die Marke von 25 Millionen Credits erreicht.<br />
<br />
Am 12.12. 2010 überschritt das Team die Marke von 100 Millionen errechneten Credits.<br />
<br />
== Teilnahme ==<br />
<br />
Um an SIMAP teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
<br />
SIMAP ist auf nahezu allen Computern lauffähig, profitiert allerdings - im Gegensatz zu vielen anderen Projekten - von erweiterten CPU Befehlssätzen wie [[SSE]].<br />
<br />
Clients sind für Windows, Linux, Mac und etliche Unix-Derivate wie etwa Solaris und BSD verfügbar.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 1,5 MB. Bei jeder [[Work-Unit]] werden ca. 2 MB herunter- und 0,5 MB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* SIMAP vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Es gibt zwei verschieden Anwendungen: SIMAP zum Proteinsequenzenvergleich und HMMER (''Hidden Markov Models'') für deren Domänen.<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen ~30min (A64 2,5GHz) und ~3h (P3 1GHz).<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden, bevor diese Rechner Credits gut geschrieben bekommen.<br />
* Die [[Deadline]] bei diesem Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 300 pro Tag und Host. <br />
* SIMAP profitiert wenig von einer hohen Speicherbandbreite und einem großen CPU-Cache, nutzt aber Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.).<br />
* Für Rechner, die kein SSE unterstützen (i386 wie z. B. AMD Athlon Thunderbird), können [http://boinc.bio.wzw.tum.de/boincsimap/appdownloads.php angepasste Anwendungen] manuell installiert werden. Für Linux und Windows gibt es 64-Bit-Clients, die ca. 10-15% schneller sind als der Standard-Client für Windows. Auch für andere Sonderfälle gibt es Anwendungen.<br />
* SIMAP ist ein periodisches Projekt. Es gibt hauptsächlich am Monatsanfang WUs, deren Menge je nach Umfang des Updates des Verzeichnis schwankt. Um eine gleichmäßigere Verteilung zu erhalten werden ~2000 neue WUs dann alle 10 Minuten zum Download freigegeben.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner SIMAP.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/ boinc.bio.wzw.tum.de/boincsimap/] - Internetpräsenz des Projekts<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=5443Spinhenge@home2011-04-17T15:31:37Z<p>TAL9000: /* Besonderheiten */ Doppelt hinweis LinuxClient gelöscht</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz, welcher erst am 7. Oktober 2009 zurückgewonnen werden konnte.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 2 MB sowie bis zu 3MB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden ab wuid=53463706, 200 Credits pro WU gut geschrieben<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die Wartezeit zwischen Server anfragen beträgt 15 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 100 pro Tag und Prozessorkern.<br />
* Spinhenge@home hat eine geringen Arbeitsspeicherbelastung von ca. 10 MB, dadurch eignet sich Spinhenge im Vergleich mit anderen Projekten sehr gut für Rechner mit wenig RAM.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=5442Spinhenge@home2011-04-17T15:30:56Z<p>TAL9000: /* Besonderheiten */ Aktualisiert an core_shell_nanoparticle</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz, welcher erst am 7. Oktober 2009 zurückgewonnen werden konnte.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 2 MB sowie bis zu 3MB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden ab wuid=53463706, 200 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die Wartezeit zwischen Server anfragen beträgt 15 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 100 pro Tag und Prozessorkern.<br />
* Spinhenge@home hat eine geringen Arbeitsspeicherbelastung von ca. 10 MB, dadurch eignet sich Spinhenge im Vergleich mit anderen Projekten sehr gut für Rechner mit wenig RAM.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=5441Spinhenge@home2011-04-17T15:21:08Z<p>TAL9000: /* Teilnahme */ Neue Datengrösse WUs</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz, welcher erst am 7. Oktober 2009 zurückgewonnen werden konnte.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 2 MB sowie bis zu 3MB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 16 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 15 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Datei:Flag_cn.png&diff=5380Datei:Flag cn.png2010-08-23T18:05:07Z<p>TAL9000: http://de.wikipedia.org/wiki/Datei:Icons-flag-cn.png</p>
<hr />
<div>http://de.wikipedia.org/wiki/Datei:Icons-flag-cn.png</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Rectilinear_Crossing_Number&diff=5372Rectilinear Crossing Number2010-06-06T17:44:43Z<p>TAL9000: /* Besonderheiten */ Credit System nicht erklärbar</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|TU Graz}}<br />
|-<br />
| {{Steckbrief Nationalität|Österreich|at}}<br />
|-<br />
| {{Steckbrief Start|Juni 2006}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://dist.ist.tugraz.at/cape5/|Name=dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|?|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Rectilinear Crossing No.}}<br />
|}<br />
<br />
'''Rectilinear Crossing Number''' ist ein Projekt aus dem Bereich der Graphentheorie.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das "Rectilinear Crossing Number" Problem aus der Graphentheorie zu lösen. Vereinfacht gesagt versucht es die kleinste Anzahl von Kreuzungen zwischen einer bestimmten Anzahl von Punkten, welche man mit geraden Linien verbindet, zu finden. Dies könnte bei logistischen (Posttransport/Verteilung) sowie Routing-Problemen bei der Layouterstellung von Platinen helfen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 30.08.2006 mit einem eigenen Team an Rectilinear Crossing Number teil und schob sich am 12.05.2007 auf Platz 1 der Teamstatistik. Dieser Platz konnte bis zum 09.12.2007 behauptet werden, als man schließlich von SETI.USA überholt wurde.<br />
<br />
== Teilnahme ==<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* RCN vergibt claimed => granted Credits (> aus unbekannten Gründen)<br />
* Die WU Länge fällt in die Kategorie "klein-mittel", sie liegt zwischen wenigen Sekunden und maximal ~24 Stunden.<br />
* Das [[Quorum]] beträgt 1. Eine Work-Unit muss nur von einem Rechnern erfolgreich berechnet werden <br />
* Die [[Deadline]] bei diesem Projekt beträgt 21 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* RCN WUs haben immer eine maximale Laufzeit von 24 Stunden, unabhängig wie schnell der zu bearbeitende Rechner ist. (Grund: Es findet nicht wie bei üblichen Projekten eine endliche Berechnung statt, vielmehr wird nach einem Vorkommnis gesucht)<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner RCN.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://dist.ist.tugraz.at/cape5/ dist.ist.tugraz.at/cape5/] - Internetpräsenz des Projekts<br />
* [http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Rectilinear_Crossing_Number&diff=5371Rectilinear Crossing Number2010-06-06T08:16:22Z<p>TAL9000: /* Besonderheiten */ Neue WUs Cr und Laufzeiten</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|TU Graz}}<br />
|-<br />
| {{Steckbrief Nationalität|Österreich|at}}<br />
|-<br />
| {{Steckbrief Start|Juni 2006}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://dist.ist.tugraz.at/cape5/|Name=dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|?|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Rectilinear Crossing No.}}<br />
|}<br />
<br />
'''Rectilinear Crossing Number''' ist ein Projekt aus dem Bereich der Graphentheorie.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das "Rectilinear Crossing Number" Problem aus der Graphentheorie zu lösen. Vereinfacht gesagt versucht es die kleinste Anzahl von Kreuzungen zwischen einer bestimmten Anzahl von Punkten, welche man mit geraden Linien verbindet, zu finden. Dies könnte bei logistischen (Posttransport/Verteilung) sowie Routing-Problemen bei der Layouterstellung von Platinen helfen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 30.08.2006 mit einem eigenen Team an Rectilinear Crossing Number teil und schob sich am 12.05.2007 auf Platz 1 der Teamstatistik. Dieser Platz konnte bis zum 09.12.2007 behauptet werden, als man schließlich von SETI.USA überholt wurde.<br />
<br />
== Teilnahme ==<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* RCN vergibt claimed * 1,6 = granted Credits<br />
* Die WU Länge fällt in die Kategorie "klein-mittel", sie liegt zwischen wenigen Sekunden und maximal 24 Stunden.<br />
* Das [[Quorum]] beträgt 1. Eine Work-Unit muss nur von einem Rechnern erfolgreich berechnet werden <br />
* Die [[Deadline]] bei diesem Projekt beträgt 21 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* RCN WUs haben immer eine maximale Laufzeit von 24 Stunden, unabhängig wie schnell der zu bearbeitende Rechner ist. (Grund: Es findet nicht wie bei üblichen Projekten eine endliche Berechnung statt, vielmehr wird nach einem Vorkommnis gesucht)<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner RCN.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://dist.ist.tugraz.at/cape5/ dist.ist.tugraz.at/cape5/] - Internetpräsenz des Projekts<br />
* [http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Virtual_Prairie&diff=5169Virtual Prairie2009-08-23T13:33:27Z<p>TAL9000: /* Besonderheiten */ Speicherbandbreite / Belegung</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|University of Houston}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|November 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://vcsc.cs.uh.edu/virtual-prairie/|Name=vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Virtual Prairie}}<br />
|}<br />
<br />
'''Virtual Prairie''' ist ein amerikanisches Projekt zum Verständnis von Reproduzierungsstrategien in komplexen Ökosystemen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das Wachstumsverhalten in der nordamerikanischen Steppe im Zusammenhang mit äusseren Einflüssen bzw. Störungen, wie z. B. wiederholtes Abmähen oder Grasen, zu simulieren. Interessant ist dabei das dort übliche aride Klima (lateinisch aridus = trocken, dürr) mit niedriger Luftfeuchtigkeit und wenig Regen. Die sonst nur durch zusätzliche Bewässerung zur üblichen Landwirtschaft nutzbare Fläche könnte dadurch zum Anbau von Biomasse genutzt werden. Damit liese sich CO2-neutrale Energie (Biokraftstoffe, Faulgase usw.) gewinnen.<br />
<br />
Das Projekt arbeitet mit der französischen Université de Rennes 1 zusammen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 11. April 2008 mit einem eigenen Team an Virtual Prairie teil.<br />
<br />
== Teilnahme ==<br />
<br />
Das Projekt befindet sich in der Alpha-Phase. Mit Problemen sowie Instabilitäten muss deswegen gerechnet werden. Der Speicherbedarf ist stark schwankend und kann kurzzeitig mehre hundert Megabyte betragen. Die Berechnungsdauer liegt bei wenigen Minuten.<br />
<br />
== Besonderheiten ==<br />
<br />
* Virtual Prairie vergibt [[Credits#Fixe Credits|fixe Credits]]. Es werden 12 Credits pro WU gut geschrieben.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 3 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 500 pro Tag und Prozessorkern.<br />
* Die Speicherbelegung schwankt zwischen unter 10MB bis zu über 200MB.<br />
* Virtual Prairie ist stark von der Speicherbandbreite abhängig. Mehrere parallel laufende WUs können sich gegenseitig ausbremsen.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_VirtualPrairie.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/ vcsc.cs.uh.edu/virtual-prairie/] - Internetpräsenz des Projekts<br />
* [http://vcsc.cs.uh.edu/ViP.html vcsc.cs.uh.edu/ViP.html] - Hintergrundinformationen (English)<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Virtual_Prairie&diff=5168Virtual Prairie2009-08-23T13:29:33Z<p>TAL9000: /* Teilnahme */ Speicherauslastung</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|University of Houston}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|November 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://vcsc.cs.uh.edu/virtual-prairie/|Name=vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Virtual Prairie}}<br />
|}<br />
<br />
'''Virtual Prairie''' ist ein amerikanisches Projekt zum Verständnis von Reproduzierungsstrategien in komplexen Ökosystemen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das Wachstumsverhalten in der nordamerikanischen Steppe im Zusammenhang mit äusseren Einflüssen bzw. Störungen, wie z. B. wiederholtes Abmähen oder Grasen, zu simulieren. Interessant ist dabei das dort übliche aride Klima (lateinisch aridus = trocken, dürr) mit niedriger Luftfeuchtigkeit und wenig Regen. Die sonst nur durch zusätzliche Bewässerung zur üblichen Landwirtschaft nutzbare Fläche könnte dadurch zum Anbau von Biomasse genutzt werden. Damit liese sich CO2-neutrale Energie (Biokraftstoffe, Faulgase usw.) gewinnen.<br />
<br />
Das Projekt arbeitet mit der französischen Université de Rennes 1 zusammen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 11. April 2008 mit einem eigenen Team an Virtual Prairie teil.<br />
<br />
== Teilnahme ==<br />
<br />
Das Projekt befindet sich in der Alpha-Phase. Mit Problemen sowie Instabilitäten muss deswegen gerechnet werden. Der Speicherbedarf ist stark schwankend und kann kurzzeitig mehre hundert Megabyte betragen. Die Berechnungsdauer liegt bei wenigen Minuten.<br />
<br />
== Besonderheiten ==<br />
<br />
* Virtual Prairie vergibt [[Credits#Fixe Credits|fixe Credits]]. Es werden 12 Credits pro WU gut geschrieben.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 3 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 500 pro Tag und Prozessorkern.<br />
* Mit der geringen Arbeitsspeicherbelastung von unter 2 MB eignet sich Virtual Prairie im Vergleich mit anderen Projekten sehr gut für schwach bestückte Rechner.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_VirtualPrairie.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/ vcsc.cs.uh.edu/virtual-prairie/] - Internetpräsenz des Projekts<br />
* [http://vcsc.cs.uh.edu/ViP.html vcsc.cs.uh.edu/ViP.html] - Hintergrundinformationen (English)<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Virtual_Prairie&diff=5164Virtual Prairie2009-08-15T17:28:56Z<p>TAL9000: /* Besonderheiten */</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|University of Houston}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|November 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://vcsc.cs.uh.edu/virtual-prairie/|Name=vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Virtual Prairie}}<br />
|}<br />
<br />
'''Virtual Prairie''' ist ein amerikanisches Projekt zum Verständnis von Reproduzierungsstrategien in komplexen Ökosystemen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das Wachstumsverhalten in der nordamerikanischen Steppe im Zusammenhang mit äusseren Einflüssen bzw. Störungen, wie z. B. wiederholtes Abmähen oder Grasen, zu simulieren. Interessant ist dabei das dort übliche aride Klima (lateinisch aridus = trocken, dürr) mit niedriger Luftfeuchtigkeit und wenig Regen. Die sonst nur durch zusätzliche Bewässerung zur üblichen Landwirtschaft nutzbare Fläche könnte dadurch zum Anbau von Biomasse genutzt werden. Damit liese sich CO2-neutrale Energie (Biokraftstoffe, Faulgase usw.) gewinnen.<br />
<br />
Das Projekt arbeitet mit der französischen Université de Rennes 1 zusammen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 11. April 2008 mit einem eigenen Team an Virtual Prairie teil.<br />
<br />
== Teilnahme ==<br />
<br />
Das Projekt befindet sich in der Alpha-Phase. Mit Problemen sowie Instabilitäten muss deswegen gerechnet werden. Der Speicherbedarf ist mit weniger als 2 MB pro [[Work-Unit|WU]] sehr niedrig. Die Berechnungsdauer liegt bei wenigen Minuten.<br />
<br />
== Besonderheiten ==<br />
<br />
* Virtual Prairie vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 12 Credits pro WU gut geschrieben<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 3 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 500 pro Tag und Prozessorkern.<br />
* Mit der geringen Arbeitsspeicherbelastung von unter 2 MB eignet sich Virtual Prairie im Vergleich mit anderen Projekten sehr gut für schwach bestückte Rechner.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_VirtualPrairie.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/ vcsc.cs.uh.edu/virtual-prairie/] - Internetpräsenz des Projekts<br />
* [http://vcsc.cs.uh.edu/ViP.html vcsc.cs.uh.edu/ViP.html] - Hintergrundinformationen (English)<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Virtual_Prairie&diff=5163Virtual Prairie2009-08-15T17:28:18Z<p>TAL9000: Besonderheiten</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|University of Houston}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|November 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://vcsc.cs.uh.edu/virtual-prairie/|Name=vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://vcsc.cs.uh.edu/virtual-prairie/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Virtual Prairie}}<br />
|}<br />
<br />
'''Virtual Prairie''' ist ein amerikanisches Projekt zum Verständnis von Reproduzierungsstrategien in komplexen Ökosystemen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das Wachstumsverhalten in der nordamerikanischen Steppe im Zusammenhang mit äusseren Einflüssen bzw. Störungen, wie z. B. wiederholtes Abmähen oder Grasen, zu simulieren. Interessant ist dabei das dort übliche aride Klima (lateinisch aridus = trocken, dürr) mit niedriger Luftfeuchtigkeit und wenig Regen. Die sonst nur durch zusätzliche Bewässerung zur üblichen Landwirtschaft nutzbare Fläche könnte dadurch zum Anbau von Biomasse genutzt werden. Damit liese sich CO2-neutrale Energie (Biokraftstoffe, Faulgase usw.) gewinnen.<br />
<br />
Das Projekt arbeitet mit der französischen Université de Rennes 1 zusammen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 11. April 2008 mit einem eigenen Team an Virtual Prairie teil.<br />
<br />
== Teilnahme ==<br />
<br />
Das Projekt befindet sich in der Alpha-Phase. Mit Problemen sowie Instabilitäten muss deswegen gerechnet werden. Der Speicherbedarf ist mit weniger als 2 MB pro [[Work-Unit|WU]] sehr niedrig. Die Berechnungsdauer liegt bei wenigen Minuten.<br />
<br />
== Besonderheiten ==<br />
<br />
* Virtual Prairie vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 12 Credits pro WU gut geschrieben<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 3 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 500 pro Tag und Prozessorkern.<br />
* Mit der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich Virtual Prairie im Vergleich mit anderen Projekten sehr gut für schwach bestückte Rechner.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_VirtualPrairie.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/ vcsc.cs.uh.edu/virtual-prairie/] - Internetpräsenz des Projekts<br />
* [http://vcsc.cs.uh.edu/ViP.html vcsc.cs.uh.edu/ViP.html] - Hintergrundinformationen (English)<br />
* [http://vcsc.cs.uh.edu/virtual-prairie/team_display.php?teamid=309 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=5159Spinhenge@home2009-08-12T20:05:36Z<p>TAL9000: /* Besonderheiten */</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 1,7 MB sowie 3 KB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 14 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 15 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Rectilinear_Crossing_Number&diff=5140Rectilinear Crossing Number2009-08-04T07:09:04Z<p>TAL9000: /* Besonderheiten */</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|TU Graz}}<br />
|-<br />
| {{Steckbrief Nationalität|Österreich|at}}<br />
|-<br />
| {{Steckbrief Start|Juni 2006}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://dist.ist.tugraz.at/cape5/|Name=dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|?|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Rectilinear Crossing No.}}<br />
|}<br />
<br />
'''Rectilinear Crossing Number''' ist ein Projekt aus dem Bereich der Graphentheorie.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht das "Rectilinear Crossing Number" Problem aus der Graphentheorie zu lösen. Vereinfacht gesagt versucht es die kleinste Anzahl von Kreuzungen zwischen einer bestimmten Anzahl von Punkten, welche man mit geraden Linien verbindet, zu finden. Dies könnte bei logistischen (Posttransport/Verteilung) sowie Routing-Problemen bei der Layouterstellung von Platinen helfen.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 30.08.2006 mit einem eigenen Team an Rectilinear Crossing Number teil und schob sich am 12.05.2007 auf Platz 1 der Teamstatistik. Dieser Platz konnte bis zum 09.12.2007 behauptet werden, als man schließlich von SETI.USA überholt wurde.<br />
<br />
== Teilnahme ==<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* RCN vergibt claimed = granted Credits<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen wenigen Sekunden und maximal 4 Stunden.<br />
* Das [[Quorum]] beträgt 1. Eine Work-Unit muss nur von einem Rechnern erfolgreich berechnet werden <br />
* Die [[Deadline]] bei diesem Projekt beträgt 10 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* RCN WUs haben immer eine maximale Laufzeit von 14400 Sekunden, unabhängig wie schnell der zu bearbeitende Rechner ist. (Grund: Es findet nicht wie bei üblichen Projekten eine endliche Berechnung statt, vielmehr wird nach einem Vorkommnis gesucht)<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner RCN.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://dist.ist.tugraz.at/cape5/ dist.ist.tugraz.at/cape5/] - Internetpräsenz des Projekts<br />
* [http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=IBERCIVIS&diff=5108IBERCIVIS2009-06-29T06:29:50Z<p>TAL9000: /* Weblinks */</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Physik}}<br />
|-<br />
| {{Steckbrief Betreiber|Universidad De Zaragoza (Instituto de Biocomputación y Física de Sistemas Complejos)}}<br />
|-<br />
| {{Steckbrief Nationalität|Spanien|es}}<br />
|-<br />
| {{Steckbrief Start|Juni 2008}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://ibercivis.es|Name=ibercivis.es}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://registro.ibercivis.es/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://registro.ibercivis.es/team_display.php?teamid=821}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=IBERCIVIS}}<br />
|}<br />
<br />
'''IBERCIVIS''' ist das Nachfolgeprojekt des Ende 2007 beendeten Projekts [[Zivis Superordenador Ciudadano]]. Es ist ein gemeinsames Projekt der Stadt Zaragoza mit dem Institut "BIFI" der ansässigen Universität. Die Berechnungen stehen offenbar im Zusammenhang mit dem Fusionsreaktor ITER.<br />
<br />
== Projektbeschreibung ==<br />
<br />
*'''Kernfusionsforschung : ''' Mit der Anwendung fusion werden Teilchenbahnen im Fusionsplasma berechnet. Ausgangsbasis ist der Fusionsforschungsreaktor Heliac Flexible TJ-II am Forschungszentrum CIEMAT (Centro de Investigationes Energeticas, Medioambientales y Tecnologicas). Die Ergebnisse sollen in die Entwicklung des ITER (Internationaler Thermonuklearer Experimenteller Reaktor) einfließen.<br />
<br />
''Warum Kernfusion?''<br />
<br />
Mehr als neunzig Prozent des Energiebedarfs der Welt wird heute mit fossilen Energiequellen abgedeckt. In Zeiten von Klimaveränderung, begrenzter Brennstoff-Vorräte, politischen Instabilitäten auf längere Sicht, lässt auch bald den letzten Menschen verstehen, dass sich die gegenwärtige Versorgungssicherheit langfristig So nicht halten lässt.<br />
<br />
Die Fusion ist neben erneuerbaren Energien und Kernspaltung eine Alternative zu Kohle, Erdöl und Erdgas. Der große Vorteil der Fusion sind die Brennstoffe (Wasserstoffisotope), die in fast beliebigen Mengen zur Verfügung stehen. Ein Fusionskraftwerk wird keine dem Klima schädlichen Gase erzeugen und lässt günstige Sicherheitseigenschaften erwarten. Die Fusion könnte daher einen großen Beitrag zur Energieversorgung der Zukunft leisten. Mit ca. 1000 Megawatt elektrischer Leistung könnte ein Fusionskraftwerk dabei besonders für die Grundlast-Stromversorgung geeignet sein.<br />
<br />
*'''Docking :''' Die Anwendung docking dient zur Erforschung des molekularen Docking. Ziel ist es Medikamente zu finden, mit denen häufig vorkommende Krankheiten, wie z.B. Krebs, behandelt werden können. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
*'''Materialien :''' Die Anwendungen materiales16, 24, 32, 48, 64 und 128 arbeiten im Bereich Werkstoffe, Kristallgitter Magnetismus und Entwicklung von Supraleitern. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs und x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T) sowie für Mac OS X ab 10.4 auf Intel-CPUs.<br />
<br />
*'''Fusion :''' Mit der Anwendung fusion werden Teilchenbahnen im Fusionsplasma berechnet. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T).<br />
<br />
*'''Nanoluz :''' Nanuloz dient der Erforschung des Verhaltens von Licht in/an metallischen Nanopartikeln. Dies soll den Aufbau neuer Materialien ermöglichen, die Entwicklung neuer Datenverarbeitungs- und Kommunikationssysteme vorantreiben und verbesserte Sonnenkollektoren ermöglichen. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
*'''Neurosim :''' Neurosim dient der Analyse struktureller Eigenschaften von Aminosäuren und kleinen Peptiden die im Gehirn und im Nervensystem auftreten. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
*'''Adsortion :''' Diese Anwendung befasst sich mit dem Verhalten begrenzter Flüssigkeiten (confined fluids) in eingeschränkten Räumen, einem sehr interessanten physikalischen Phänomen. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
Mutmaßung zu materiales-Anwendungen: Es wird an leistungsfähigen Materialien geforscht, die hohen Betriebstemperaturen und Kühlmitteldrücken unter hochenergetischer Neutronenbestrahlung standhalten. Diese Materialien sollen eine geringe Aktivierbarkeit aufweisen, um so die Umweltverträglichkeit der Fusionsanlagen zu garantieren. Die Verträglichkeit mit anderen Materialien, wie z.B. den Kühlmitteln, Brutmaterialien und Neutronenmultiplikatoren, muss ebenfalls gewährleistet sein.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 25.06.2008 mit einem eigenen Team an IBERCIVIS teil.<br />
<br />
Bisherige Meilensteine:<br />
* 15.07.2008 30.000 [[Credits]] mit 30 Mitgliedern auf Platz 18<br />
* 17.07.2008 91.000 Credits mit 35 Mitgliedern auf Platz 2<br />
* 08.09.2008 1.000.000 Credits mit 72 Mitgliedern auf Platz 2<br />
<br />
== Teilnahme ==<br />
<br />
Um an IBERCIVIS teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
IBERCIVIS bietet für Windows-Systeme eine einfache Installation an, dabei muss nur die Datei ibercivis.exe geladen und ausgeführt werden, siehe [http://www.ibercivis.es/index.php?module=public&section=channels&action=view&id_channel=2 Join Ibercivis].<br />
<br />
Clients sind bisher für Windows (x86/x86-64), Linux (x86/x86-64) , MacOS-X (PowerPC/x86-64) verfügbar.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]] nur in wenigen Anwendungen die dann auch noch sehr grob ausfallen.<br />
* IBERCIVIS vergibt derzeit noch keine [[Credits#Fixe Credits|fixen Credits]] mit Ausnahme der Anwendung docking, ggf. werden auch noch alle anderen Anwendungen auf fixe Credits umgstellt.<br />
* Das [[Quorum]] beträgt 1. Eine [[Work-Unit]] muss somit nur von einem Rechner erfolgreich berechnet werden.<br />
* Die [[Deadline]] bei diesen Projekt wird sehr knapp gehalten und beträgt ca. 2 Tage, später abgegebene Work-Units werden u.U nicht mehr akzeptiert, d.h. sie werden nicht mit Credits vergütet. Die Berechnung sollte also innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Betriebssysteme mit 64-Bit sind etwas schneller als ihre Pendants mit 32-Bit.<br />
* Die Work-Units (verschiedene Serien) unterscheiden sich in Berechnungsdauer sowie Speicherauslastung. Die Berechungszeiten liegen (teilweise deutlich) unter einer Stunde.<br />
* Sehr aus der Rolle fällt derzeit die Anwendung "fusion", nicht nur der Download der Anwendung 2.19 ist mit über 70 MByte relativ groß (Down- und Upload einer WU benötigen dagegen nur wenige kByte), auch die Speicherbelastung einer einzelnen WU liegt bei 400 MByte.<br />
* Mac OS X ab 10.3 auf Motorola PowerPC wird nur noch von der Anwendung "nanoluz" unterstützt.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_IBERCIVIS.png]]<br />
<br />
[[Bild:Banner_IBERCIVIS2.png]]<br />
<br />
[[Bild:Banner_IBERCIVIS3.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://ibercivis.es/ ibercivis.es] - Internetpräsenz des Projekts<br />
Für die englische Seite muss im IE-Browser ggf. benutzerdefiniert die Sprache "en" hinzufügt werden. Siehe [http://www.planet3dnow.de/vbulletin/showthread.php?p=3973926#post3973926 hier]<br />
* [http://registro.ibercivis.es/team_display.php?teamid=821 Planet 3DNow! Teamstatistik]<br />
''Mehr zu ITER/Fusionkraftwerken:''<br />
<br />
*[http://www.planet-wissen.de/pw/Artikel,,,,,,,3F0C1E48547F1888E0440003BA5E08BC,,,,,,,,,,,,,,,.html Kernfusion - Energie der Zukunft?] (mit deutschem Video; planet-wissen)<br />
*[http://www.ipp.mpg.de/ippcms/de/pr/exptypen/fusionskraftwerk/index.html Das Fusionskraftwerk] (Max-Planck-Institut für Plasmaphysik)<br />
*[http://www.ipp.mpg.de/ippcms/de/pr/fusion21/index.html Fusion 21] (Max-Planck-Institut für Plasmaphysik)<br />
*[http://www.fzk.de/fzk/idcplg?IdcService=FZK&node=0553 Kernfusion - Einführung] (Forschungszentrum Kalsruhe)<br />
<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Physik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=IBERCIVIS&diff=5107IBERCIVIS2009-06-28T21:23:45Z<p>TAL9000: /* Weblinks */ en Spracheneinstellung für Browser</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Physik}}<br />
|-<br />
| {{Steckbrief Betreiber|Universidad De Zaragoza (Instituto de Biocomputación y Física de Sistemas Complejos)}}<br />
|-<br />
| {{Steckbrief Nationalität|Spanien|es}}<br />
|-<br />
| {{Steckbrief Start|Juni 2008}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://ibercivis.es|Name=ibercivis.es}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://registro.ibercivis.es/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://registro.ibercivis.es/team_display.php?teamid=821}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=IBERCIVIS}}<br />
|}<br />
<br />
'''IBERCIVIS''' ist das Nachfolgeprojekt des Ende 2007 beendeten Projekts [[Zivis Superordenador Ciudadano]]. Es ist ein gemeinsames Projekt der Stadt Zaragoza mit dem Institut "BIFI" der ansässigen Universität. Die Berechnungen stehen offenbar im Zusammenhang mit dem Fusionsreaktor ITER.<br />
<br />
== Projektbeschreibung ==<br />
<br />
*'''Kernfusionsforschung : ''' Mit der Anwendung fusion werden Teilchenbahnen im Fusionsplasma berechnet. Ausgangsbasis ist der Fusionsforschungsreaktor Heliac Flexible TJ-II am Forschungszentrum CIEMAT (Centro de Investigationes Energeticas, Medioambientales y Tecnologicas). Die Ergebnisse sollen in die Entwicklung des ITER (Internationaler Thermonuklearer Experimenteller Reaktor) einfließen.<br />
<br />
''Warum Kernfusion?''<br />
<br />
Mehr als neunzig Prozent des Energiebedarfs der Welt wird heute mit fossilen Energiequellen abgedeckt. In Zeiten von Klimaveränderung, begrenzter Brennstoff-Vorräte, politischen Instabilitäten auf längere Sicht, lässt auch bald den letzten Menschen verstehen, dass sich die gegenwärtige Versorgungssicherheit langfristig So nicht halten lässt.<br />
<br />
Die Fusion ist neben erneuerbaren Energien und Kernspaltung eine Alternative zu Kohle, Erdöl und Erdgas. Der große Vorteil der Fusion sind die Brennstoffe (Wasserstoffisotope), die in fast beliebigen Mengen zur Verfügung stehen. Ein Fusionskraftwerk wird keine dem Klima schädlichen Gase erzeugen und lässt günstige Sicherheitseigenschaften erwarten. Die Fusion könnte daher einen großen Beitrag zur Energieversorgung der Zukunft leisten. Mit ca. 1000 Megawatt elektrischer Leistung könnte ein Fusionskraftwerk dabei besonders für die Grundlast-Stromversorgung geeignet sein.<br />
<br />
*'''Docking :''' Die Anwendung docking dient zur Erforschung des molekularen Docking. Ziel ist es Medikamente zu finden, mit denen häufig vorkommende Krankheiten, wie z.B. Krebs, behandelt werden können. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
*'''Materialien :''' Die Anwendungen materiales16, 24, 32, 48, 64 und 128 arbeiten im Bereich Werkstoffe, Kristallgitter Magnetismus und Entwicklung von Supraleitern. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs und x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T) sowie für Mac OS X ab 10.4 auf Intel-CPUs.<br />
<br />
*'''Fusion :''' Mit der Anwendung fusion werden Teilchenbahnen im Fusionsplasma berechnet. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T).<br />
<br />
*'''Nanoluz :''' Nanuloz dient der Erforschung des Verhaltens von Licht in/an metallischen Nanopartikeln. Dies soll den Aufbau neuer Materialien ermöglichen, die Entwicklung neuer Datenverarbeitungs- und Kommunikationssysteme vorantreiben und verbesserte Sonnenkollektoren ermöglichen. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
*'''Neurosim :''' Neurosim dient der Analyse struktureller Eigenschaften von Aminosäuren und kleinen Peptiden die im Gehirn und im Nervensystem auftreten. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
*'''Adsortion :''' Diese Anwendung befasst sich mit dem Verhalten begrenzter Flüssigkeiten (confined fluids) in eingeschränkten Räumen, einem sehr interessanten physikalischen Phänomen. Work Units sind verfügbar für Windows (ab Win98) und Linux auf x86-kompatiblen CPUs sowie für Linux auf x64-kompatiblen CPUs (AMD x86_64 und Intel EM64T). <br />
<br />
Mutmaßung zu materiales-Anwendungen: Es wird an leistungsfähigen Materialien geforscht, die hohen Betriebstemperaturen und Kühlmitteldrücken unter hochenergetischer Neutronenbestrahlung standhalten. Diese Materialien sollen eine geringe Aktivierbarkeit aufweisen, um so die Umweltverträglichkeit der Fusionsanlagen zu garantieren. Die Verträglichkeit mit anderen Materialien, wie z.B. den Kühlmitteln, Brutmaterialien und Neutronenmultiplikatoren, muss ebenfalls gewährleistet sein.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
{{Stub Erfolge}}<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 25.06.2008 mit einem eigenen Team an IBERCIVIS teil.<br />
<br />
Bisherige Meilensteine:<br />
* 15.07.2008 30.000 [[Credits]] mit 30 Mitgliedern auf Platz 18<br />
* 17.07.2008 91.000 Credits mit 35 Mitgliedern auf Platz 2<br />
* 08.09.2008 1.000.000 Credits mit 72 Mitgliedern auf Platz 2<br />
<br />
== Teilnahme ==<br />
<br />
Um an IBERCIVIS teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
IBERCIVIS bietet für Windows-Systeme eine einfache Installation an, dabei muss nur die Datei ibercivis.exe geladen und ausgeführt werden, siehe [http://www.ibercivis.es/index.php?module=public&section=channels&action=view&id_channel=2 Join Ibercivis].<br />
<br />
Clients sind bisher für Windows (x86/x86-64), Linux (x86/x86-64) , MacOS-X (PowerPC/x86-64) verfügbar.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]] nur in wenigen Anwendungen die dann auch noch sehr grob ausfallen.<br />
* IBERCIVIS vergibt derzeit noch keine [[Credits#Fixe Credits|fixen Credits]] mit Ausnahme der Anwendung docking, ggf. werden auch noch alle anderen Anwendungen auf fixe Credits umgstellt.<br />
* Das [[Quorum]] beträgt 1. Eine [[Work-Unit]] muss somit nur von einem Rechner erfolgreich berechnet werden.<br />
* Die [[Deadline]] bei diesen Projekt wird sehr knapp gehalten und beträgt ca. 2 Tage, später abgegebene Work-Units werden u.U nicht mehr akzeptiert, d.h. sie werden nicht mit Credits vergütet. Die Berechnung sollte also innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Betriebssysteme mit 64-Bit sind etwas schneller als ihre Pendants mit 32-Bit.<br />
* Die Work-Units (verschiedene Serien) unterscheiden sich in Berechnungsdauer sowie Speicherauslastung. Die Berechungszeiten liegen (teilweise deutlich) unter einer Stunde.<br />
* Sehr aus der Rolle fällt derzeit die Anwendung "fusion", nicht nur der Download der Anwendung 2.19 ist mit über 70 MByte relativ groß (Down- und Upload einer WU benötigen dagegen nur wenige kByte), auch die Speicherbelastung einer einzelnen WU liegt bei 400 MByte.<br />
* Mac OS X ab 10.3 auf Motorola PowerPC wird nur noch von der Anwendung "nanoluz" unterstützt.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_IBERCIVIS.png]]<br />
<br />
[[Bild:Banner_IBERCIVIS2.png]]<br />
<br />
[[Bild:Banner_IBERCIVIS3.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://ibercivis.es/ ibercivis.es] - Internetpräsenz des Projekts<br />
Für die englische Seite muss im Browser ggf. benutzerdefiniert die Sprache "en" hinzufügt werden. Siehe [http://www.planet3dnow.de/vbulletin/showthread.php?p=3973926#post3973926 hier]<br />
* [http://registro.ibercivis.es/team_display.php?teamid=821 Planet 3DNow! Teamstatistik]<br />
''Mehr zu ITER/Fusionkraftwerken:''<br />
<br />
*[http://www.planet-wissen.de/pw/Artikel,,,,,,,3F0C1E48547F1888E0440003BA5E08BC,,,,,,,,,,,,,,,.html Kernfusion - Energie der Zukunft?] (mit deutschem Video; planet-wissen)<br />
*[http://www.ipp.mpg.de/ippcms/de/pr/exptypen/fusionskraftwerk/index.html Das Fusionskraftwerk] (Max-Planck-Institut für Plasmaphysik)<br />
*[http://www.ipp.mpg.de/ippcms/de/pr/fusion21/index.html Fusion 21] (Max-Planck-Institut für Plasmaphysik)<br />
*[http://www.fzk.de/fzk/idcplg?IdcService=FZK&node=0553 Kernfusion - Einführung] (Forschungszentrum Kalsruhe)<br />
<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Physik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=4838Spinhenge@home2009-04-26T19:15:15Z<p>TAL9000: /* Besonderheiten */ Wartezeitänderung auf 15Min</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 1,7 MB sowie 3 KB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 13 Credits bzw. ab 11_Fe30_map_1, 14 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 15 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Rectilinear_Crossing_Number&diff=4790Rectilinear Crossing Number2009-04-07T00:41:52Z<p>TAL9000: Erster Versuch von mir</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Mathematik}}<br />
|-<br />
| {{Steckbrief Betreiber|TU Graz}}<br />
|-<br />
| {{Steckbrief Nationalität|Österreich|at}}<br />
|-<br />
| {{Steckbrief Start|Juni 2006}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://dist.ist.tugraz.at/cape5/|Name=dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://dist.ist.tugraz.at/cape5/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|?|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Rectilinear Crossing No.}}<br />
|}<br />
<br />
'''Rectilinear Crossing Number''' ist ein Projekt aus dem Bereich der Graphentheorie.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Das Projekt versucht ein Probleme aus der Graphentheorie "Rectilinear Crossing Number" zu lösen. Vereinfacht gesagt versucht es die kleinste Anzahl von Kreuzungen zwischen einer bestimmten Anzahl von Punkten, welche man mit geraden Linien verbindet, zu finden. Dieses könnte bei Logitischen (Posttransport/Verteilung) sowie "Routing" Problemen bei der Layouterstellung von Platinen helfen.<br />
<br />
=== Erfolge des Projekts ===<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
=== Planet 3DNow! ===<br />
<br />
Planet 3DNow! nimmt seit dem 30.08.2006 mit einem eigenen Team an Rectilinear Crossing Number teil und schob sich am 12.05.2007 auf Platz 1 der Teamstatistik. Dieser Platz konnte bis zum 09.12.2007 behauptet werden, als man schließlich von SETI.USA überholt wurde.<br />
<br />
=== Teilnahme ===<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]]. (? nicht sicher bitte Verifizieren)<br />
* RCN vergibt claimed = granted Credits<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen wenigen Sekunden und maximal 4 Stunden.<br />
* Das [[Quorum]] beträgt 1. Eine Work-Unit muss nur von einem Rechnern erfolgreich berechnet werden <br />
* Die [[Deadline]] bei diesem Projekt beträgt 10 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* RCN WUs haben immer eine maximale Laufzeit von 14400 Sekunden, unabhängig wie schnell der zu bearbeitende Rechner ist. <br />
<br />
<br />
=== Banner ===<br />
<br />
[[Bild:Banner RCN.png]]<br />
<br />
=== Weblinks ===<br />
<br />
* [http://dist.ist.tugraz.at/cape5/ dist.ist.tugraz.at/cape5/] - Internetpräsenz des Projekts<br />
* [http://dist.ist.tugraz.at/cape5/team_display.php?teamid=249 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Mathematik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=4778Spinhenge@home2009-03-21T21:47:53Z<p>TAL9000: /* Besonderheiten */ Wu Bezeichnung vergessen</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 1,7 MB sowie 3 KB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 13 Credits bzw. ab 11_Fe30_map_1, 14 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 20 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=4777Spinhenge@home2009-03-21T21:46:56Z<p>TAL9000: /* Besonderheiten */ 13 ->14Cr</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 1,7 MB sowie 3 KB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]]. Es werden 14 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 20 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4741Boinc Scheduler2009-02-27T13:43:53Z<p>TAL9000: /* manuelle Steuerung der Projekt */ Deadline Problematik</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
(won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Problem "No work sent" Lösungen ==<br />
Nachfolgend verschieden Möglichkeiten um an Wus zu kommen, obwohl Boinc keine "will" bzw. bekommt.<br />
<br />
==== Verhaltensänderung ====<br />
Es ist einfacher als man denkt und auch logisch: Mehr Rechenleistung gibt mehr Arbeit :-) <br />
Sofern der PC leistungsfähig genug ist, kann man den Client einstellen, das er immer arbeitet, auch wenn der PC in Nutzung ist. Wenn Boinc dabei die normale Arbeit am PC stört, kann man z.B. über die Werte:<br />
On multiprocessors, use at most (< Version 5.10) X processors<br />
On multiprocessors, use at most (> Version 6.1) X % of the processors<br />
Use at most (> Version 5.6) X percent of CPU time<br />
Boinc "begrenzen". Genauer Erklärung dazu siehe [[http://dc.planet3dnow.de/wiki/index.php?title=Portal:BOINC/Konfiguration|BOINC Konfiguration]]<br />
Der weitergehende Weg währe den PC "durchlaufen" zulassen, ist der PC mehr an steigen die Werte <on_frac> und <active_frac> von alleine. Je nach dem wie stark die Nutzungsänderung über den Zeitraum ist, kann das dauern. Zu Beachten ist dabei die stärker Belastung des PCs durch Boinc siehe dazu [[http://dc.planet3dnow.de/wiki/index.php?title=DC Nachteile|DC Nachteile]]<br />
<br />
Der letzte Möglichkeit ist eine entsprechende Aufrüstung oder Übertaktung der Hardware, bitte auf eigene Gefahr und/oder Kosten achten.<br />
<br />
==== manuelle Steuerung der Projekt ====<br />
Boinc macht einen Unterschied zwischen Projekt "Anhalten" und "Keine neuen Aufgabe". Bei Anhalten wird das Projekt Pausiert und die "Kurzzeit Schuld" wird weiter aufsummiert. Wenn das Projekt keine neuen Aufgaben rechnen darf, werden keine neuen Angefordert und der Wert der "Langzeit Schuld" wird nicht weiter geändert, nach Beendigung der verbleibenden WUs. Dementsprechend sollten alle Projekte die nicht berechnet werden sollen, auf "Keine neue Arbeit" gestellt werden und um den Vorgang zu beschleunigen alle nicht angefangenen WUs abgebrochen werden. Bereits angefangene WUs abzubrechen bedeutet die damit bisher geleistete Arbeit wegzuschmeißen und ist nicht empfohlen. <br />
Es gibt einige Projekte (welche?) die abgebrochene WUs wieder zurücksenden, statt sie an andere Clients zu verteilen. In diesen Fall sollte man nach Senden der fertiggestellten WUs die Funktion "Zurücksetzen" verwenden. Alternativ kann man sich auch von den "unerwünschten" Projekten abmelden. Bei wieder Anmeldung wird der STD/LTD Wert auf 0 gesetzt.<br />
Zu beachten ist bei Projekten mit kurzer Deadline, das der Arbeitspuffer (zusätzlicher + verbinde all X Tage) nicht grösser als die Deadline sein darf. Beispiel: <br />
Projekt Deadline 7 Tage / Verbinden alle 1T / Zusätzlich 5T = 7>1+5 -> Server sendet WUs <br />
Projekt Deadline 5 Tage / Verbinden alle 1T / Zusätzlich 5T = 5<1+5 -> Server sendet keine WUs<br />
Man fordert sonst mehr Arbeit an als in der Zeit berechnet werden kann und damit automatisch über die Deadline überschreitet<br />
<br />
==== direkte Manipulation client_state.xml ====<br />
Durch direkte Änderung der entsprechenden Werte in der client_state.xml kann Boinc davon überzeugt werden WUs anzufordern. Dazu mus Boinc komplett beendet werden. Bei Installation als Service geht das z.B. bei Windows XP über den Befehl "net stop boinc" ("net start boinc" aktiviert den Service wieder).<br />
Bei PCs die eher selten an sind, bzw. die aktive Zeit entsprechend gering war, ist als erstes empfehlenswert, die Werte <on_frac> und <active_frac> hochzusetzen. Beispiel:<br />
<time_stats><br />
<on_frac>0.99</on_frac><br />
<active_frac>0.99</active_frac><br />
</time_stats><br />
Dabei ist zu beachten das nun Boinc denkt 99% der Zeit laufen zu dürfen und in dieser Zeit auch 99% rechnen darf. Um ein Verfallen der WUs durch die Deadline zu vermeiden sollte, dann der PC auch die notwendige Zeit laufen, bzw. rechnen dürfen!<br />
<br />
Um ein Projekt durch Manipulation der client_state.xml einen höherer Priorität zu geben sucht man in den entsprechenden <projekt> Abschnitt nach den Werten <short_term_debt> und <long_term_debt>und ändert sie entsprechend Beispiel:<br />
<project><br />
<short_term_debt>85999</short_term_debt><br />
<long_term_debt>999999</long_term_debt><br />
</project><br />
Es ist zu empfehle an dieser Stelle nicht zu übertreiben und auch die Werte der andren "unerwünschten" Projekte zu beachten. Am besten setzt man alle Werte auf 0 und lässt Boinc gemäß der Ressourcen bzw. Keine neuen Aufgaben entscheiden welches Projekt genommen werden soll. Einfacher sind diese Werte mit BoincDV zu manipulieren<br />
<br />
==== BoincDV ====<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4740Boinc Scheduler2009-02-27T13:32:04Z<p>TAL9000: /* direkte Manipulation client_state.xml */</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
(won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Problem "No work sent" Lösungen ==<br />
Nachfolgend verschieden Möglichkeiten um an Wus zu kommen, obwohl Boinc keine "will" bzw. bekommt.<br />
<br />
==== Verhaltensänderung ====<br />
Es ist einfacher als man denkt und auch logisch: Mehr Rechenleistung gibt mehr Arbeit :-) <br />
Sofern der PC leistungsfähig genug ist, kann man den Client einstellen, das er immer arbeitet, auch wenn der PC in Nutzung ist. Wenn Boinc dabei die normale Arbeit am PC stört, kann man z.B. über die Werte:<br />
On multiprocessors, use at most (< Version 5.10) X processors<br />
On multiprocessors, use at most (> Version 6.1) X % of the processors<br />
Use at most (> Version 5.6) X percent of CPU time<br />
Boinc "begrenzen". Genauer Erklärung dazu siehe [[http://dc.planet3dnow.de/wiki/index.php?title=Portal:BOINC/Konfiguration|BOINC Konfiguration]]<br />
Der weitergehende Weg währe den PC "durchlaufen" zulassen, ist der PC mehr an steigen die Werte <on_frac> und <active_frac> von alleine. Je nach dem wie stark die Nutzungsänderung über den Zeitraum ist, kann das dauern. Zu Beachten ist dabei die stärker Belastung des PCs durch Boinc siehe dazu [[http://dc.planet3dnow.de/wiki/index.php?title=DC Nachteile|DC Nachteile]]<br />
<br />
Der letzte Möglichkeit ist eine entsprechende Aufrüstung oder Übertaktung der Hardware, bitte auf eigene Gefahr und/oder Kosten achten.<br />
<br />
==== manuelle Steuerung der Projekt ====<br />
Boinc macht einen Unterschied zwischen Projekt "Anhalten" und "Keine neuen Aufgabe". Bei Anhalten wird das Projekt Pausiert und die "Kurzzeit Schuld" wird weiter aufsummiert. Wenn das Projekt keine neuen Aufgaben rechnen darf, werden keine neuen Angefordert und der Wert der "Langzeit Schuld" wird nicht weiter geändert, nach Beendigung der verbleibenden WUs. Dementsprechend sollten alle Projekte die nicht berechnet werden sollen, auf "Keine neue Arbeit" gestellt werden und um den Vorgang zu beschleunigen alle nicht angefangenen WUs abgebrochen werden. Bereits angefangene WUs abzubrechen bedeutet die damit bisher geleistete Arbeit wegzuschmeißen und ist nicht empfohlen. <br />
Es gibt einige Projekte (welche?) die abgebrochene WUs wieder zurücksenden, statt sie an andere Clients zu verteilen. In diesen Fall sollte man nach Senden der fertiggestellten WUs die Funktion "Zurücksetzen" verwenden. Alternativ kann man sich auch von den "unerwünschten" Projekten abmelden. Bei wieder Anmeldung wird der STD/LTD Wert auf 0 gesetzt.<br />
<br />
==== direkte Manipulation client_state.xml ====<br />
Durch direkte Änderung der entsprechenden Werte in der client_state.xml kann Boinc davon überzeugt werden WUs anzufordern. Dazu mus Boinc komplett beendet werden. Bei Installation als Service geht das z.B. bei Windows XP über den Befehl "net stop boinc" ("net start boinc" aktiviert den Service wieder).<br />
Bei PCs die eher selten an sind, bzw. die aktive Zeit entsprechend gering war, ist als erstes empfehlenswert, die Werte <on_frac> und <active_frac> hochzusetzen. Beispiel:<br />
<time_stats><br />
<on_frac>0.99</on_frac><br />
<active_frac>0.99</active_frac><br />
</time_stats><br />
Dabei ist zu beachten das nun Boinc denkt 99% der Zeit laufen zu dürfen und in dieser Zeit auch 99% rechnen darf. Um ein Verfallen der WUs durch die Deadline zu vermeiden sollte, dann der PC auch die notwendige Zeit laufen, bzw. rechnen dürfen!<br />
<br />
Um ein Projekt durch Manipulation der client_state.xml einen höherer Priorität zu geben sucht man in den entsprechenden <projekt> Abschnitt nach den Werten <short_term_debt> und <long_term_debt>und ändert sie entsprechend Beispiel:<br />
<project><br />
<short_term_debt>85999</short_term_debt><br />
<long_term_debt>999999</long_term_debt><br />
</project><br />
Es ist zu empfehle an dieser Stelle nicht zu übertreiben und auch die Werte der andren "unerwünschten" Projekte zu beachten. Am besten setzt man alle Werte auf 0 und lässt Boinc gemäß der Ressourcen bzw. Keine neuen Aufgaben entscheiden welches Projekt genommen werden soll. Einfacher sind diese Werte mit BoincDV zu manipulieren<br />
<br />
==== BoincDV ====<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4739Boinc Scheduler2009-02-27T13:22:47Z<p>TAL9000: /* Problem "No work sent" Lösungen */ Sicherungs Abspeicherung</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
(won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Problem "No work sent" Lösungen ==<br />
Nachfolgend verschieden Möglichkeiten um an Wus zu kommen, obwohl Boinc keine "will" bzw. bekommt.<br />
<br />
==== Verhaltensänderung ====<br />
Es ist einfacher als man denkt und auch logisch: Mehr Rechenleistung gibt mehr Arbeit :-) <br />
Sofern der PC leistungsfähig genug ist, kann man den Client einstellen, das er immer arbeitet, auch wenn der PC in Nutzung ist. Wenn Boinc dabei die normale Arbeit am PC stört, kann man z.B. über die Werte:<br />
On multiprocessors, use at most (< Version 5.10) X processors<br />
On multiprocessors, use at most (> Version 6.1) X % of the processors<br />
Use at most (> Version 5.6) X percent of CPU time<br />
Boinc "begrenzen". Genauer Erklärung dazu siehe [[http://dc.planet3dnow.de/wiki/index.php?title=Portal:BOINC/Konfiguration|BOINC Konfiguration]]<br />
Der weitergehende Weg währe den PC "durchlaufen" zulassen, ist der PC mehr an steigen die Werte <on_frac> und <active_frac> von alleine. Je nach dem wie stark die Nutzungsänderung über den Zeitraum ist, kann das dauern. Zu Beachten ist dabei die stärker Belastung des PCs durch Boinc siehe dazu [[http://dc.planet3dnow.de/wiki/index.php?title=DC Nachteile|DC Nachteile]]<br />
<br />
Der letzte Möglichkeit ist eine entsprechende Aufrüstung oder Übertaktung der Hardware, bitte auf eigene Gefahr und/oder Kosten achten.<br />
<br />
==== manuelle Steuerung der Projekt ====<br />
Boinc macht einen Unterschied zwischen Projekt "Anhalten" und "Keine neuen Aufgabe". Bei Anhalten wird das Projekt Pausiert und die "Kurzzeit Schuld" wird weiter aufsummiert. Wenn das Projekt keine neuen Aufgaben rechnen darf, werden keine neuen Angefordert und der Wert der "Langzeit Schuld" wird nicht weiter geändert, nach Beendigung der verbleibenden WUs. Dementsprechend sollten alle Projekte die nicht berechnet werden sollen, auf "Keine neue Arbeit" gestellt werden und um den Vorgang zu beschleunigen alle nicht angefangenen WUs abgebrochen werden. Bereits angefangene WUs abzubrechen bedeutet die damit bisher geleistete Arbeit wegzuschmeißen und ist nicht empfohlen. <br />
Es gibt einige Projekte (welche?) die abgebrochene WUs wieder zurücksenden, statt sie an andere Clients zu verteilen. In diesen Fall sollte man nach Senden der fertiggestellten WUs die Funktion "Zurücksetzen" verwenden. Alternativ kann man sich auch von den "unerwünschten" Projekten abmelden. Bei wieder Anmeldung wird der STD/LTD Wert auf 0 gesetzt.<br />
<br />
==== direkte Manipulation client_state.xml ====<br />
Durch direkte Änderung der entsprechenden Werte in der client_state.xml kann Boinc davon überzeugt werden WUs anzufordern. Bei PCs die eher selten an sind, bzw. die aktive Zeit entsprechend gering war, ist als erstes empfehlenswert, die Werte <on_frac> und <active_frac> hochzusetzten. Beispiel:<br />
<time_stats><br />
<on_frac>0.99</on_frac><br />
<active_frac>0.99</active_frac><br />
</time_stats><br />
Dabei ist zu beachten das nun Boinc denkt 99% der Zeit laufen zu dürfen und in dieser Zeit auch 99% rechnen darf. Um ein Verfallen der WUs durch die Deadline zu vermeiden sollte, dann der PC auch die notwendige Zeit laufen, bzw. rechnen dürfen!<br />
<br />
Um ein Projekt durch Manipulation der client_state.xml einen höherer Priorität zu geben<br />
==== BoincDV ====<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4738Boinc Scheduler2009-02-27T12:40:21Z<p>TAL9000: /* EDF (Panik) Modus */</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
(won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Problem "No work sent" Lösungen ==<br />
<br />
==== Verhaltensänderung ====<br />
<br />
==== manuelle Steuerung der Projekt ====<br />
<br />
==== direkte Manipulation client_state.xml ====<br />
<br />
==== BoincDV ====<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4737Boinc Scheduler2009-02-27T12:39:42Z<p>TAL9000: /* EDF (Panik) Modus */</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
(won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20.0% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Problem "No work sent" Lösungen ==<br />
<br />
==== Verhaltensänderung ====<br />
<br />
==== manuelle Steuerung der Projekt ====<br />
<br />
==== direkte Manipulation client_state.xml ====<br />
<br />
==== BoincDV ====<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4736Boinc Scheduler2009-02-27T12:36:26Z<p>TAL9000: Unterabschitte Anlegt zum seperaten Bearbeiten</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
Message from server: (won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20.0% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Problem "No work sent" Lösungen ==<br />
<br />
==== Verhaltensänderung ====<br />
<br />
==== manuelle Steuerung der Projekt ====<br />
<br />
==== direkte Manipulation client_state.xml ====<br />
<br />
==== BoincDV ====<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4735Boinc Scheduler2009-02-27T12:30:39Z<p>TAL9000: EDF</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt 80 / 336 = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt 40 / 336 = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzzeit Schuld" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt. Es zeigt sozusagen die Schuld des Clients bei den jeweiligen Projekt/24h an. Ist der Wert 0 hat Boinc seine Arbeit, gemäß der Ressorcen einstellung geleistet.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langzeit Schuld" liegt im Bereich von +-1000000 Sekunden. Dieser ist einer der Faktoren zur WU Anforderung durch Boinc bei dem entsprechenden Projekt. Bei einem negativen Wert wird keine Arbeit angefordert. Boinc hat "zuviel" an diesen Projekt gemäß Ressourcen einstellung gerechnet. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
Neben den genannten Werten, beachtet Boinc auch die Deadline der WUs. Wenn es merkt das es "zuviel" Arbeit angefordert hat oder der <br />
<active_frac> Wert sinkt (Urlaub -> PC ist mehr aus, es wird mehr gearbeitet -> Boinc darf weniger rechnen) werden die WUs mit der nächsten Deadline bevorzugt gerechnet um ein "brauchbares" Ergebnis zu gewährleisten. In dieser Zeit fordert Boinc keine Arbeit mehr an. Mittlerweile prüfen auch die Projekt Server die Zeitstatistiken und verweigern die Zuteilung von WUs, wenn gemäß der Werte, in der geforderten Zeit nicht berechnet werden können.<br />
Beispiel:<br />
Message from server: No work sent<br />
Message from server: (won't finish in time) Computer on 50% of time, BOINC on 25% of that, this project gets 20.0% of that<br />
No work from project<br />
Der Server sagt damit, das der PC 50% der Zeit an ist, 25% davon Boinc rechnen darf und das Projekt von dieser Zeit 20% nur bekommt.<br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Boinc_Scheduler&diff=4734Boinc Scheduler2009-02-27T11:42:50Z<p>TAL9000: Erste Version bis Kaffepause</p>
<hr />
<div>Der Boinc Scheduler ist zuständig zum Abarbeiten der Projekte gemäß der eingestellten Ressourcen Anteile. <br />
<br />
== Ressourcenanteil ==<br />
Diese können von 1% bis 1000% eingestellt werden, stellen jedoch keine echten % Anteile dar. Die Summe der eingestellten Ressourcen aller Projekte entspricht dann dem Nenner, die Ressource des Projekts dem Zähler.<br />
Beispiel:<br />
<br />
Projekt A ist auf 100% gesetzt; Projekt B ist auf 50% gesetzt; Projekt C ist auf 250% gesetzt -> A+B+C = 400<br />
<br />
Projekt A bekommt 100/400 = 25%; Projekt B bekommt 50/400 = 12,5%; Projekt C bekommt 250/400 = 62,5%<br />
<br />
Ohne die zusätzlichen Faktoren bedeutet diese, das Projekt C 2,5x mehr gerechnet wird als Projekt A, welches jedoch 2x mehr als Projekt B gerechnet wird.<br />
<br />
== Boinc Zeit Statistik ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <time_stats> den Anteil in denen Boinc gestartet und aktiv ist. <br />
<time_stats><br />
<on_frac>0.XXX</on_frac><br />
<active_frac>0.XXX</active_frac><br />
</time_stats><br />
<br />
Der Wert <on_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur Laufzeit des Boinc Clients, unabhängig davon ob er Berechnungen durchführt oder angehalten ist, sprich pausiert.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet (10x8h). Dies ergibt (8 * 10) / (14 * 24) = <on_frac>0.238095238</on_frac> = ~24% Laufzeit des Boinc Clients<br />
<br />
Der Wert <active_frac> ist der Zeitanteil seit dem Boinc installiert wurde im Verhältnis zur aktiven Laufzeit des Boinc Clients, also die Zeit in der WUs abgearbeitet/berechnet werden.<br />
<br />
Beispiel: Boinc wurde vor genau 14 Tagen (14x24h) installiert, in dieser Zeit wurde der PC mit Boinc als Service Installation (Boinc startet automatisch mit dem OS) immer 8h lang eingeschaltet und davon durfte 4h am Tag der Boinc Client seine Berechnungen durch führen. Dies ergibt (4 * 10) / (14 * 24) = <active_frac>0.119047619</active_frac> = ~12% aktive Laufzeit des Boinc Clients, in der Berechnungen durchgeführt wurden.<br />
<br />
== STD und LTD Wert ==<br />
Boinc speichert in der client_state.xml unter dem abschnitt <project> den jeweiligen Anteil in denen Boinc die Projekte rechnen lässt / aktiv ist.<br />
<project><br />
<short_term_debt>XXX</short_term_debt><br />
<long_term_debt>XXX</long_term_debt><br />
</project><br />
<br />
Der Wert <short_term_debt>, übersetzbar mit "Kurzfristige Verbindlichkeiten" liegt im Bereich von 0-86400 (Sekunden/Tag). Dieser Werte soll die Abarbeitung der WUs im Zeitraum <24h gewährleisten. Beim nächsten Umschalten gemäß der Ressourcenaufteilung wird das Projekt mit dem höchsten <short_term_debt> Wert bevorzugt.<br />
<br />
Der Wert <long_term_debt>, übersetzbar mit "Langfristige Verbindlichkeiten" liegt im Bereich von +-1000000 (Sekunden/Tag). Dieser Wert soll für die Abarbeitung der WUs im Zeitraum >24h sorgen. Bei einem negativen Wert @ Projekt wird keine Arbeit angefordert. Bei einem positiven Wert, wird je nach Höhe und Ressourcenanteil Arbeit angefordert unter Berücksichtigung des <active_frac> Wertes. Stehen die Werte alle im negativen Bereich, so erscheint unter Meldungen overcomitted und no new work fetch allowed. Boinc ist dann überarbeitet (overcomitted) und fordert keine neuen WUs (no new work fetch allowed). Dieser Modus wird dann auch earliest-deadline-first (EDF) genannt.<br />
<br />
== EDF (Panik) Modus ==<br />
<br />
<brauche Kaffee mache später weiter TAL9000><br />
<br />
== Weblinks ==<br />
<br />
* [http://www.skipsjunk.net/info/boincdv.html Programmseite von BoincDV]<br />
* [http://boinc.ssl.berkeley.edu/trac/wiki/ClientSched Detaillierte Erklärung auf Englisch, Clients vor 6.4.X]<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=4689Spinhenge@home2008-12-21T11:45:03Z<p>TAL9000: /* Besonderheiten */ Fixed Cr 13 pro WU</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 1,7 MB sowie 3 KB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt [[Credits#Fixe Credits|fixen Credits]] ab WU Map250. Es werden 13 Credits pro WU gut geschrieben<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 20 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Spinhenge@home&diff=4687Spinhenge@home2008-12-17T10:33:05Z<p>TAL9000: /* Besonderheiten */ Quorum 3->2</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Nanotechnologie}}<br />
|-<br />
| {{Steckbrief Betreiber|FH Bielefeld (Fachrichtung Informationstechnik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|September 2006}}<br />
|-<br />
| {{Steckbrief Status|Beta}}<br />
|-<br />
| {{Steckbrief Checkpoints|Ja}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://spin.fh-bielefeld.de|Name=spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://spin.fh-bielefeld.de}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|Beta|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|-|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://spin.fh-bielefeld.de/team_display.php?teamid=246}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Spinhenge@home}}<br />
|}<br />
<br />
'''Spinhenge@home''' ist ein Projekt der Fachrichtung Informationstechnik der Fachhochschule Bielefeld, das sich mit der Erforschung von nanomagnetischen Molekülen befasst.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Mit Hilfe der Nanotechnologie lassen sich heute maßgeschneiderte molekulare Magneten erzeugen. Solche Moleküle sollen in Zukunft für die Produktion hochintegrierter Speicherbausteine und winziger magnetischer Schalter genutzt werden. Auch in der Medizin, bspw. der Krebsbehandlung, lassen sich solche Moleküle einsetzen.<br />
<br />
Um diese Ziele zu erreichen, ist eine umfangreiche Untersuchung der physikalischen Eigenschaften solcher magnetischen Moleküle nötig. Die dazu notwendigen numerischen Simulationen sind sehr zeitaufwendig und werden deshalb mit Hilfe von Distributed Computing durchgeführt.<br />
<br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 12.09.2006 mit einem eigenen Team an Spinhenge@home teil. Vom 05.11.2006 bis zum 26.01.2008 belegte es Rang 1 der Teamstatistik.<br />
<br />
Anfang November 2006 hatte das Team 106 Mitglieder und schaffte es damit als seinerzeit größtes Team sogar in die Presse ([http://spin.fh-bielefeld.de/spin_presse.php "Schröder lässt rechnen"]). Danach stagnierte der Zuwachs etwas, wenngleich fleißig weitergerechnet wurde.<br />
<br />
Spinhenge@home wurde für den Juli 2008 zum [[Projekt des Monats]] gewählt, in dessen Verlauf ca. 2,7 Millionen Credits durch das Team errechnet wurden. Am 06. August wurden schließlich 50 Millionen Credits erreicht.<br />
<br />
=== Race gegen SETI.USA ===<br />
<br />
Im März 2007 wandte SETI.USA nach der Eroberung von Platz 1 bei [[SETI@home]] sich anderen Zielen zu und beschloss, Planet 3DNow! die Spitzenpositionen bei Spinhenge@home, [[QMC@Home]] und [[SIMAP]] (in dieser Reihenfolge) abzunehmen. Daraufhin startete Planet 3DNow! eine Motivationskampagne und bekam innerhalb weniger Tage mehr als 100 neue Mitglieder. Im Verlauf des [[Race|Races]] gegen SETI.USA wuchs die Mitgliederzahl gar auf knapp 600.<br />
<br />
SETI.USA gelang es zwar Planet 3DNow! zu überholen, zeigte aber kein Interesse den 1. Platz zu halten, sodass Planet 3DNow! wenige Tage später die Spitzenposition zurückeroberte.<br />
<br />
=== Race gegen Electronic Sports League (ESL) ===<br />
<br />
→ ''Hauptartikel: [[ESL-Race (Spinhenge@home 2008)|ESL-Race]]''<br />
<br />
Im November 2007 kündigte das Team Electronic Sports League (ESL) an, bei Spinhenge@home den 1. Platz angreifen zu wollen. Am 07.12.2007 forderte daraufhin Planet 3DNow! die ESL zu einem Race auf die Marke von 44.444.444 [[Credits]] heraus. Die ESL nahm die Herausforderung an, doch schon wenige Stunden später baten die Betreiber von Spinhenge@home beide Teams, das Race auf den 07.01.2008 zu verschieben um die Server nicht kurz vor ihrem Austausch noch zu überlasten und so über die Feiertage hohen administrativen Aufwand zu verursachen. Die Teams kamen der Bitte weitgehend nach.<br />
<br />
Am 07. Januar 2008 um 12:00 Uhr begann dann das verschobene Race mit der ESL. Als neue Ziellinie wurde das Erreichen von 15 Millionen Credits festgelegt. Trotz kräftiger Hilfe von SETI.USA, SETI.Germany und anderen Teams wurde das Race am Morgen des 21. Januar 2008 deutlich verloren.<br />
<br />
Am 26. Januar 2008 eroberte die ESL schließlich auch noch den ersten Platz.<br />
<br />
== Teilnahme ==<br />
<br />
Zur Teilnahme an dem Projekt ist der [[Portal:BOINC/Beschreibung|BOINC]]-Client nötig. Anschließend fügt man Spinhenge@home mit der im Steckbrief genannten URL hinzu.<br />
<br />
Für Linux stellt das Projekt einen Beta-Client zur Verfügung, der mit dem [http://boincdl.ssl.berkeley.edu/dl/boinc_5.10.28_i686-pc-linux-gnu.sh Linux BOINC-Manager] genutzt werden kann. Zur Zeit arbeitet dieser ca. 25% langsamer als die Windows-Anwendung und kann beim Aufrufen der Grafik abstürzen.<br />
<br />
Die Datenmenge beim Download beträgt einmalig ca. 1,7 MB sowie 3 KB pro [[Work-Unit]].<br />
<br />
=== Spinhenge unter Linux ===<br />
<br />
Solle Spinhenge alle WUs abbrechen, dann könnte das daran liegen, dass dem System eine Bibliothek wie z. B. libglut.so.3 fehlt.<br />
Überprüfen lässt sich das einfach mit ldd, die Ausgabe könnte dann so aussehen:<br />
<br />
ldd Software/BOINC/projects/spin.fh-bielefeld.de/metropolis_3.12_i686-pc-linux-gnu <br />
linux-gate.so.1 => (0x00110000)<br />
libglut.so.3 => /usr/lib/libglut.so.3 (0x00570000)<br />
libGLU.so.1 => /usr/lib/libGLU.so.1 (0x07bd1000)<br />
libjpeg.so.62 => /usr/lib/libjpeg.so.62 (0x00608000)<br />
libGL.so.1 => /usr/lib/nvidia/libGL.so.1 (0x05d19000)<br />
libXmu.so.6 => /usr/lib/libXmu.so.6 (0x00bae000)<br />
libXt.so.6 => /usr/lib/libXt.so.6 (0x02184000)<br />
libXext.so.6 => /usr/lib/libXext.so.6 (0x00dd0000)<br />
libXi.so.6 => /usr/lib/libXi.so.6 (0x0022d000)<br />
libSM.so.6 => /usr/lib/libSM.so.6 (0x00388000)<br />
libICE.so.6 => /usr/lib/libICE.so.6 (0x00394000)<br />
libX11.so.6 => /usr/lib/libX11.so.6 (0x00ca3000)<br />
libm.so.6 => /lib/libm.so.6 (0x00b2d000)<br />
libc.so.6 => /lib/libc.so.6 (0x009c2000)<br />
libpthread.so.0 => /lib/libpthread.so.0 (0x00b5f000)<br />
libXxf86vm.so.1 => /usr/lib/libXxf86vm.so.1 (0x051de000)<br />
libstdc++.so.6 => /usr/lib/libstdc++.so.6 (0x0028a000)<br />
libgcc_s.so.1 => /lib/libgcc_s.so.1 (0x00238000)<br />
libGLcore.so.1 => /usr/lib/nvidia/libGLcore.so.1 (0x00de0000)<br />
libnvidia-tls.so.1 => /usr/lib/nvidia/tls/libnvidia-tls.so.1 (0x0072d000)<br />
libdl.so.2 => /lib/libdl.so.2 (0x00b58000)<br />
libXau.so.6 => /usr/lib/libXau.so.6 (0x00c9e000)<br />
libuuid.so.1 => /lib/libuuid.so.1 (0x0037e000)<br />
libxcb-xlib.so.0 => /usr/lib/libxcb-xlib.so.0 (0x00dcc000)<br />
libxcb.so.1 => /usr/lib/libxcb.so.1 (0x00da6000)<br />
/lib/ld-linux.so.2 (0x009a2000)<br />
libXdmcp.so.6 => /usr/lib/libXdmcp.so.6 (0x00dc4000)<br />
<br />
== Besonderheiten ==<br />
<br />
* Spinhenge@home vergibt noch keine [[Credits#Fixe Credits|fixen Credits]], sie sind jedoch in Vorbereitung.<br />
* Für Linux gibt es bisher nur einen Beta-Client, welcher ca. 25% langsamer ist als der Windows-Client und beim Aufruf der Grafik abstürzen kann.<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor diese Credits gutgeschrieben bekommen.<br />
* Die [[Deadline]] bei diesen Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieser Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Es werden maximal 10 Work-Units auf einmal zugeteilt, die Wartezeit zwischen Server anfragen beträgt 20 Minuten um den Server zu entlasten, die maximale Anzahl an Work-Units ist 75 pro Tag und Prozessorkern.<br />
* Spinhenge@home profitiert wenig von einer hohen Speicherbandbreite, einem großen CPU-Cache und Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.). Im Verhältnis zu anderen Projekten wirkt sich hier die schiere Taktrate besonders aus. Bei gleichem Takt von 2,4GHz nehmen sich z. B. ein Athlon XP und ein A64 (X2) mit ~42 Minuten für eine durchschnittliche Work-Unit, fast nichts in der Berechnungszeit. Zusammen mir der geringen Arbeitsspeicherbelastung von ca. 2 bis 3 MB eignet sich dadurch Spinhenge im Vergleich mit anderen Projekten sehr gut für ältere Rechner.<br />
* Trotz Kompilierung mit einem Intel-System laufen AMD Prozessoren durchweg besser als ältere Intel CPUs. So braucht ein Intel Pentium M mit 2GHz ~65 Minuten, ein Pentium 4 mit 2,8GHz (ohne HT) ~60 Minuten und ein Core2 Prozessor mit 2,4GHz ~44 Minuten. [http://www.planet3dnow.de/vbulletin/showthread.php?t=302974 Quelle Berechnungszeiten im Forum]<br />
* Durch die geringen Datenmengen bei der Übertragung der Work-Units ist das Projekt auch für Rechner mit einem schwachen Internetanschluss (Modem/ISDN) sehr gut geeignet.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Spinhenge.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://spin.fh-bielefeld.de spin.fh-bielefeld.de] - Internetpräsenz des Projekts<br />
* [http://spin.fh-bielefeld.de/team_display.php?teamid=246 Planet 3DNow! Teamstatistik]<br />
* [http://www.boincstats.com/stats/team_stats.php?pr=spinhenge&st=0 boincstats.com] - Teamstatistiken bei BOINCstats<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Nanotechnologie]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Einstein@Home&diff=4639Einstein@Home2008-11-20T16:24:07Z<p>TAL9000: /* Teilnahme */ bist zu -> bis zu</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Astronomie & Astrophysik}}<br />
|-<br />
| {{Steckbrief Betreiber|LIGO Scientific Collaboration}}<br />
|-<br />
| {{Steckbrief Nationalität|International|int}}<br />
|-<br />
| {{Steckbrief Start|Februar 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://einstein.phys.uwm.edu|Name=einstein.phys.uwm.edu}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://einstein.phys.uwm.edu}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC|-|-|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://einstein.phys.uwm.edu/team_display.php?teamid=454}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Einstein@Home}}<br />
|}<br />
<br />
'''Einstein@Home''' ist ein Projekt der LIGO Scientific Collaboration, das das All nach Gravitationswellen absucht.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Im Rahmen des Projekts werden vom amerikanischen [http://de.wikipedia.org/wiki/LIGO Laser Interferometer Gravitational wave Observatory] und dem deutschen [http://de.wikipedia.org/wiki/GEO600 GEO600] gesammelte Daten nach Gravitationswellen von Pulsaren und anderen kompakten schnell rotierenden Sternen mit einer extrem hohen Dichte und nicht-rotationssymmetrischen Formen durchsucht. Der Allgemeinen Relativitätstheorie zufolge krümmen Sterne mit den genannten Eigenschaften die Raumzeit um sie herum so stark, dass dabei messbare Gravitationswellen entstehen.<br />
<br />
Der erstmalige direkte Nachweis der Existenz von Gravitationswellen soll hierbei dadurch gelingen, dass die periodische Längenänderung von zwei rechtwinklig angeordneten Messstrecken mittels Laser-Interferometrie bestimmt wird. Der Effekt ist aber so schwach, dass eine 4km lange Messstrecke zwischen zwei Testmassen sich nur um den Bruchteil eines Proton-Durchmessers verringert. Um diesen Effekt aus einem Hintergrundrauschen von verschiedenen Störeinflüssen herauszufiltern bedarf es aufwendige mathematische Verfahren und vor allem immense Rechenleistung.<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Im April 2008 wurden die ersten Ergebnisse formell in einer wissenschaftlichen Abhandlung [http://arxiv.org/pdf/0804.1747v1 veröffentlicht]. <br />
Zwar ist bisher der direkte Nachweis der Existenz von Gravitationswellen nicht gelungen, doch liefert das Experiment in jedem Fall eine neue Erkenntnis in Form einer Abschätzung der maximalen Stärke von Gravitationswellen des genannten Typs zum Zeitpunkt der Messung. <br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 09.02.2005 mit einem eigenen Team an Einstein@Home teil. Am 25.02.2008 wurde die Marke von 20 Millionen [[Credits]] überschritten.<br />
<br />
Einstein@Home wurde für den Mai 2008 zum [[Projekt des Monats]] gewählt, zu dessen Ende am 31. Mai schließlich 50 Millionen Credits erreicht wurden.<br />
<br />
== Teilnahme ==<br />
Möchte man das Einstein@Home Projekt aktiv unterstützen, muss zuerst ein BOINC Client installiert werden. Ist dies erfolgreich abgeschlossen, kann nun das Projekt über den Assistenten hinzugefügt werden. Als Projektadresse muss ''http://einstein.phys.uwm.edu/'' eingegeben werden. Nach der Angabe des Accounts werden die [[Work-Unit|Work-Units]] sowie der dazugehörige Client auf den PC übertragen und die Berechnungen gestartet.<br />
<br />
Unter dieser Adresse kann man anschließend unserem Team beitreten: [http://einstein.phys.uwm.edu/create_account_form.php?teamid=454 Team Planet 3DNow!]<br />
<br />
Der Initialdownload kann bis zu 50MB gross sein. Die Datenmenge beim Up/Download beträgt ~1-3 MB pro Work-Unit.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* Einstein@home vergibt [[Credits#Fixe Credits|fixen Credits]]<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden bevor alle Rechner Credits gutgeschrieben bekommen.<br />
* Die WU Quota wird vom Projekt dynamisch im Bereich von 1-16 WUs pro Core und Tag gesetzt. Für PCs die schneller Ergebnisse zurückliefern (niedrige average turnaround time) wird diese hochgesetzt.<br />
* Einstein@home profitiert von Befehlssatzerweiterungen (bisher [[SSE]] und höher).<br />
* Es wird die Boinc Funktion "[http://de.wikipedia.org/wiki/Boinc#Funktionen Locality Scheduling]" verwendet. Der Rechner bekommt bevorzugt WUs zugeteilt zu denen er bereits benötigte Datenpakete bekommen hat. Bei Abschluss einer Projektphase bekommt der Client dann vom Projekt einen Löschbefehl für die nicht benötigen WU Daten. Durch diese Funktion wird einerseits die Datenmenge reduziert, jedoch mehr Platz auf der Festplatte gebraucht.<br />
* Das Projekt bietet "Optimierte Anwendungen" an. Derzeit alledings nur für Windows und Linux auf PowerPCs (zb Sonys Playstation 3) : [http://einstein.phys.uwm.edu/power_apps.php Einstein Power Applications]<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_Einstein.png]]<br />
<br />
== Weblinks ==<br />
<br />
* [http://einstein.phys.uwm.edu einstein.phys.uwm.edu] - Internetpräsenz des Projekts<br />
* [http://einstein.phys.uwm.edu/team_display.php?teamid=454 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Astronomie & Astrophysik]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Predictor@home&diff=4158Predictor@home2008-06-29T20:02:59Z<p>TAL9000: /* Planet 3DNow! */ Predictor-Skandal Hinweis</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|The Scripps Research Institute}}<br />
|-<br />
| {{Steckbrief Nationalität|USA|us}}<br />
|-<br />
| {{Steckbrief Start|Juni 2004}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://predictor.chem.lsa.umich.edu/|Name=predictor.chem.lsa.umich.edu}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://predictor.chem.lsa.umich.edu/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://predictor.chem.lsa.umich.edu/team_display.php?teamid=877}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=Predictor@Home}}<br />
|}<br />
<br />
'''Predictor@home''' testet neue Algorithmen zur Vorhersage von Proteinstrukturen.<br />
<br />
== Projektbeschreibung ==<br />
<br />
TODO<br />
<br />
=== Erfolge des Projekts ===<br />
<br />
TODO: Hier sollte auf bisher erzielte Erfolge und veröffentlichte Arbeiten des Projekts eingegangen werden.<br />
<br />
=== Planet 3DNow! ===<br />
<br />
Planet 3DNow! nimmt seit dem 16.02.2005 mit einem eigenen Team an Predictor@home teil.<br />
<br />
Aufgrund des "Predictor-Skandal" wird dieses Projekt weitgehend gemieden. [http://www.planet3dnow.de/vbulletin/showpost.php?p=3644471&postcount=11 Ausführlichere Info sowie weitereLinks]<br />
<br />
=== Teilnahme ===<br />
<br />
TODO: Hinweise zu Installation und Konfiguration.<br />
<br />
=== Banner ===<br />
<br />
[[Bild:Banner Predictor.png]]<br />
<br />
=== Weblinks ===<br />
<br />
* [http://predictor.chem.lsa.umich.edu/ predictor.chem.lsa.umich.edu] - Internetpräsenz des Projekts<br />
* [http://predictor.chem.lsa.umich.edu/team_display.php?teamid=877 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Portal:BOINC/Konfiguration&diff=4156Portal:BOINC/Konfiguration2008-06-29T09:29:52Z<p>TAL9000: /* Web Interface */ Festplatten und RAM Nutzung hinzugefügt</p>
<hr />
<div>[[Portal:BOINC/Beschreibung|BOINC]] lässt sich auf verschiedene Weisen an die Bedürftnisse des Benutzers anpassen.<br />
So ist es möglich über das Webinterface Profile für Home, Work und School einzurichten und diese den Rechnern des eigenen Accounts zuzuweisen. Will man bestimmte Einstellungen speziell für einen Rechner festlegen, so steht hierfür die lokale Konfigurationsdatei global_prefs_override.xml zur Verfügung. Zudem gibt es noch zahlreiche weitere Konfigurationsdateien, die das Verhalten des BOINC-Clients und der Projekte beeinflussen.<br />
<br />
<br />
== Web Interface ==<br />
Ein Weg BOINC an die eigenen Bedürfnisse anzupassen geht über das Webinterface. In den Account Informationen findet man unter "General preferences" eine Vielzahl von Einstellungsmöglichkeiten. Diese sind in der folgenden Tabellen kurz beschrieben:<br />
<br />
Processor usage (Prozessor Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work while computer is on battery power?<br />
! class="dcw_normalTableCell" | Regelt das Verhalten bei Laptops. Bei Batteriebetrieb kann Boinc angehalten werden um die Laufzeit zu verlängern<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work while computer is in use? <br />
! class="dcw_normalTableCell" | Regelt das Verhalten bei gleichzeitiger Nutzung des PCs. Boinc wird angehalten solange am PC gearbeitet wird um die gesamte Lleistung dem User bereitzustellen (wie ein Bildschirmschoner).<br />
|-<br />
! class="dcw_normalTableCell" | 'In use' means mouse/keyboard activity in last (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Nur Aktiv wenn vorherige Option auf "yes" steht. Damit lässt sich die Wartezeit einstellen, erst nach ablauf dieser wird Boinc reaktiviert.<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work if no mouse/keyboard activity in last (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Sorgt dafür das nach der eingestellten Zeit Boinc angehalten wird, damit dann der PC in den Schlafmodus wechseln kann. Bitte entsprechen die Zeit dafür am System selber anpassen/reduzieren. Ab Boinc 5.10.14 und neueren Versionen<br />
|-<br />
! class="dcw_normalTableCell" | Do work only between the hours of<br />
! class="dcw_normalTableCell" | Lässt Boinc nur zur eingestellten Uhrzeit laufen.<br />
|-<br />
! class="dcw_normalTableCell" | Leave applications in memory while suspended?<br />
! class="dcw_normalTableCell" | Wenn Boinc angehalten wird, kann hier eingestellt werden ob die Projektanwendung im Speicher gehalten wird (pausiert) oder komplett entfernt wird (beendet). Dadurch wird die RAM Nutzung minimiert<br />
|-<br />
! class="dcw_normalTableCell" | Switch between applications every (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Diese Einstellung bestimmt nach welcher Zeit sich die Anwendungen, bei Teilnahme an meheren Projekten, abwechseln.<br />
|-<br />
! class="dcw_normalTableCell" | On multiprocessors, use at most (Anzahl) processors<br />
! class="dcw_normalTableCell" | Legt die Anzahl der zu benutzenden CPUs / Cores des PCs fest. <br />
Wird bis Boinc 5.10 und frühreren Versionen genutzt<br />
|-<br />
! class="dcw_normalTableCell" | On multiprocessors, use at most (Prozent) of the processors<br />
! class="dcw_normalTableCell" | Legt den Anteil der zu benutzenden CPUs / Cores des PCs fest. <br />
Ab Boinc 6.1 und neueren Versionen<br />
|-<br />
! class="dcw_normalTableCell" | Use at most of (Prozent) CPU time<br />
! class="dcw_normalTableCell" | Legt die Auslastung der zu benutzenden Rechenleistung des PCs fest. Da durch kann die Temperatur und Leistungsaufnahme abgesenkt werden. <br />
Ab Boinc 5.6 und neueren Versionen<br />
|}<br />
<br />
<br />
Disk and memory usage (Festplatten und RAM Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Use at most (Anzahl) GB disk space<br />
! class="dcw_normalTableCell" | Maximal genutzter Festplattenplatz für Boinc in Gigabyte.<br />
|-<br />
! class="dcw_normalTableCell" | Leave at least (Anzahl) GB disk space free<br />
! class="dcw_normalTableCell" | Mindest freigehaltener Festplattenplatz. Wenn die Festplatte zu voll wird, reduziert Boinc seinen Platzbedarf, wenn möglich.<br />
|-<br />
! class="dcw_normalTableCell" | Use at most (Prozent) of total disk space<br />
! class="dcw_normalTableCell" | Maximal genutzter Festplattenplatz für Boinc in Prozent der verwendeten Partition/Laufwerk<br />
|-<br />
! class="dcw_normalTableCell" | Write to disk at most every (Anzahl) seconds<br />
! class="dcw_normalTableCell" | In welchen Zeitabstand Ergebnisse/Änderungen aus dem RAM auf die Festplatte geschrieben werden.<br />
|-<br />
! class="dcw_normalTableCell" | Use at most (Prozent) of page file (swap space)<br />
! class="dcw_normalTableCell" | Maximal genutzte Menge des Auslagerungsplatzes für Boinc in Prozent der verwendeten Partition/Laufwerk/Datei<br />
|-<br />
! class="dcw_normalTableCell" | Use at most (Prozent) of memory when computer is in use<br />
! class="dcw_normalTableCell" | Maximal genutzte Menge des Speichers für Boinc in Prozent, wenn der Rechner genutzt wird. Ab Boinc 5.8 und neueren Versionen<br />
|-<br />
! class="dcw_normalTableCell" | Use at most (Prozent) of memory when computer is not in use<br />
! class="dcw_normalTableCell" | Maximal genutzte Menge des Speichers für Boinc in Prozent, wenn der Rechner _nicht_ genutzt wird. Ab Boinc 5.8 und neueren Versionen<br />
|}<br />
<br />
<br />
Network usage (Netzwerk Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Connect to network about every <br />
! class="dcw_normalTableCell" | Bestimmt, wie viel WUs heruntergeladen werden. <br />
|}<br />
<br />
== Profile ==<br />
Profile dienen dem einfachen Verwalten mehrere Rechner. Es gibt drei Profile: Home, Work und School. Jedes dieser Profile lässt sich einzeln über das Webinterface editieren. Um einem Rechner ein Profile zuzuordnen lässt man sich im Webinterface die Computerinformationen anzeigen und ändert dort die "Location" entsprechend ab.<br />
<br />
<br />
== Den nächsten automatischen Benchmark hinauszögern ==<br />
<br />
Standardmäßig führt der BOINC-Client automatisch alle 5 Tage einen Benchmark durch. Um diesen hinauszuzögern muss man die Zeit des letzten durchgeführten Benchmarks in die Zukunft abändern.<br />
<br />
Um den nächsten Benchmark ein Jahr hinauszuzögern geht man dabei wie folgt vor:<br />
<br />
# '''BOINC beenden'''<br />
# Die client_state.xml Datei öffnen<br />
# Nach p_calculated suchen und auf den dort stehenden Wert 31536000 (= 365 * 24 * 3600) dazuaddieren<br />
# Abspeichern, BOINC wieder starten und freuen<br />
<br />
<br />
Alternativ kann man den Zeitpunkt für den nächsten automatischen Benchmark selbst bestimmen:<br />
<br />
# '''BOINC beenden'''<br />
# Die client_state.xml Datei öffnen<br />
# Den gewünschten Zeitpunkt in [[Unixzeit]] umrechnen, zB mit http://www.unixtime.de/<br />
# Nach p_calculated suchen und den dort stehenden Wert durch den oben errechneten Wert ersetzen<br />
# Abspeichern, BOINC wieder starten und freuen<br />
<br />
<br />
'''Achtung: BOINC muss VOR diesen Änderungen unbedingt komplett beendet werden, da ansonsten massive Probleme auftreten können!'''<br />
<br />
== Weblinks == <br />
<br />
* http://boinc.berkeley.edu/prefs_override.php - Beschreibung der global_prefs_override.xml auf der Berkley Homepage<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=SIMAP&diff=4155SIMAP2008-06-29T09:11:32Z<p>TAL9000: /* Besonderheiten */ Laufzeit hinzugefügt</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|TU München (Fachrichtung Bioinformatik)}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Dezember 2005}}<br />
|-<br />
| {{Steckbrief Status|Stabil}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.bio.wzw.tum.de/boincsimap/|Name=boinc.bio.wzw.tum.de/boincsimap/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.bio.wzw.tum.de/boincsimap/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|x|x|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86-64|x|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PowerPC/PS3|-|x|x|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|IA64|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Alpha|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|Sparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|UltraSparc|-|x|-|-|x}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 32Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief Clients Architektur|PA-RISC 64Bit|-|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=SIMAP}}<br />
|}<br />
<br />
'''SIMAP''' ('''Si'''milarity '''Ma'''trix of '''P'''roteins) ist ein Projekt der TU München, welches der Erstellung einer Datenbank dient, in der die Ähnlichkeiten zwischen Proteinsequenzen gespeichert werden.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Bisher sind mehrere Millionen verschiedene Proteinsequenzen bekannt - zuviel um jedes Protein einzeln eingehend zu untersuchen. Glücklicherweise haben Proteine, die sich ähneln, meist auch ähnliche Eigenschaften und Funktionen. Deshalb überträgt man experimentelle Erkenntnisse, die für ein bestimmtes Protein gewonnen wurden, auch auf dessen Verwandte.<br />
<br />
Die Ähnlichkeit von Proteinen wird nicht nur für die Funktionsvorhersage von Proteinen genutzt, sondern auch für viele weitere Methoden der Bioinformatik. Die Ähnlichkeiten nicht jedes Mal neu berechnen zu müssen, würde eine erhebliche Zeitersparnis bedeuten.<br />
<br />
Jedoch fehlte bisher ein komplettes Verzeichnis aller Proteine und ihrer Ähnlichkeiten untereinander. Das bisher größte Verzeichnis dieser Art, das Projekt clustr am European Bioinformatics Institute, umfasst derzeit ca. 800.000 von ca. 4 Millionen bekannten Proteinen.<br />
<br />
SIMAP erstellt dagegen ein Verzeichnis ''aller'' bekannten Proteine und stellt es Forschung und Lehre vollständig kostenlos zur Verfügung. Man kann sich das Projekt als eine Matrix mit ca. 4 Millionen Spalten und ebenso vielen Zeilen vorstellen. Der Inhalt der Matrix ist symmetrisch, d. h. ist Protein 1 dem Protein 2 ähnlich, so ist auch Protein 2 dem Protein 1 ähnlich.<br />
<br />
Ständig werden neue Proteine entdeckt und auch die Modelle werden ständig erweitert und aktualisiert. Das Verzeichnis aktuell zu halten, erfordert deshalb einen enormen Rechenaufwand, dem die vorhandenen Hochleistungsrechner der TU München nicht gewachsen sind. Deshalb wird auf [[Distributed Computing]] gesetzt.<br />
<br />
Betrieben wird SIMAP als Gemeinschaftsprojekt des GSF-Forschungszentrums für Gesundheit und Umwelt in Neuherberg bei München und der Technischen Universität München, Wissenschaftszentrum Weihenstephan. Ansprechpartner ist Thomas Rattei vom Lehrstuhl für Genomorientierte Bioinformatik.<ref>[http://boinc.bio.wzw.tum.de/boincsimap/project.php Über das SIMAP Projekt]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Dank des grossen Interesses der internationalen Cruncher-Gemeinschaft konnten die Datenbestände des Projekts bereits abgearbeitet werden.<br />
Inzwischen werden meist nur noch zu Beginn jeden Monats neue Proteinsequenzen zur Berechnung verteilt werden.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 13.06.2006 mit einem eigenen Team an SIMAP teil und erreichte am 11.09.2006 Platz 1.<br />
<br />
Im Oktober 2007 konnte Planet3Dnow! als erstes Team die "Schallmauer" von 10 Millionen [[Credits]] überschreiten.<br />
<br />
SIMAP wurde für den Februar 2008 zum [[Projekt des Monats]] gewählt. Im Verlauf dieser Aktion wurde die Marke von 25 Millionen Credits erreicht.<br />
<br />
<br />
== Teilnahme ==<br />
<br />
Um an SIMAP teilzunehmen, muss man [[Portal:BOINC/Beschreibung|BOINC]] installieren. Eine Installationsanleitung findet sich im Artikel [[Portal:BOINC/Installation|Installation von BOINC]].<br />
<br />
SIMAP ist auf nahezu allen Computern lauffähig, profitiert allerdings - im Gegensatz zu vielen anderen Projekten - von erweiterten CPU Befehlssätzen wie [[SSE]].<br />
<br />
Clients sind für Windows, Linux, Mac und etliche Unix-Derivate wie etwa Solaris und BSD verfügbar.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 1,5 MB. Bei jeder [[Work-Unit]] werden ca. 2 MB herunter- und 0,5 MB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* SIMAP vergibt [[Credits#Fixe Credits|fixe Credits]].<br />
* Es gibt zwei verschieden Anwendungen: SIMAP zum Proteinsequenzenvergleich und HMMER (''Hidden Markov Models'') für deren Domänen.<br />
* Die WU Länge fällt in die Kategorie "klein", sie liegt zwischen ~30min (A64 2,5GHz) und ~3h (P3 1GHz).<br />
* Das [[Quorum]] beträgt 2. Eine Work-Unit muss also von zwei Rechnern erfolgreich berechnet werden, bevor diese Rechner Credits gut geschrieben bekommen.<br />
* Die [[Deadline]] bei diesem Projekt beträgt 7 Tage, später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* SIMAP profitiert wenig von einer hohen Speicherbandbreite und einem großen CPU-Cache, nutzt aber Befehlssatzerweiterungen ([[SSE]], [[SSE2]], [[SSE3]], [[MMX]], [[3DNow!]] etc.).<br />
* Für Rechner, die kein SSE unterstützen (i386 wie z. B. AMD Athlon Thunderbird), können [http://boinc.bio.wzw.tum.de/boincsimap/appdownloads.php angepasste Anwendungen] manuell installiert werden. Für Linux gibt es einen 64-Bit-Client, welcher ca. 10-15% schneller ist als der Standard-Client für Windows. Auch für andere Sonderfälle gibt es Anwendungen.<br />
* SIMAP ist ein periodisches Projekt. Es gibt hauptsächlich am Monatsanfang WUs, deren Menge je nach Umfang des Updates des Verzeichnis schwankt. Um eine gleichmäßigere Verteilung zu erhalten werden ~2000 neue WUs dann alle 10 Minuten zum Download freigegeben.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner SIMAP.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/ boinc.bio.wzw.tum.de/boincsimap/] - Internetpräsenz des Projekts<br />
* [http://boinc.bio.wzw.tum.de/boincsimap/team_display.php?teamid=783 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=POEM@HOME&diff=4139POEM@HOME2008-06-22T17:58:47Z<p>TAL9000: /* Teilnahme */ Transfermenge</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|Forschungszentrum Karlsruhe}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Oktober 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.fzk.de/poem/|Name=boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.fzk.de/poem/team_display.php?teamid=172}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=POEM@HOME}}<br />
|}<br />
<br />
'''POEM@HOME''' ('''P'''rotein '''O'''ptimization with '''E'''nergy '''M'''ethods) befasst sich mit der Vorhersage von Proteinstrukturen, der Interaktion von Proteinen und den Krankheiten welche durch Proteinfehlfunktionen hervorgerufen werden. Die Ergebnisse werden auch für die Entwicklung neuer Medikamente genutzt.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Proteine sind die Motoren des Lebens. Es sind große Moleküle, bestehend aus zehntausenden Atomen, die einzigartige dreidimensionale Strukturen bilden, welche die Funktion des Proteins bestimmt.<br />
<br />
Zu den Funktionen der Proteine zählen Stoffwechsel, Energieumwandlung (z. B. Photosynthese) und -transport, Signalverarbeitung im Gehirn, Immunreaktionen und vieles mehr. Fehlfunktionen von Proteinen stehen oft im Zusammenhang mit Krankheiten. Bis heute sind tausende Proteine bekannt, die mit Krankheiten in Verbindung stehen, aber von vielen ist die Struktur nicht bekannt.<br />
<br />
Um Proteine zu verstehen, beeinflussen oder gar zu designen, ist es nötig die Proteinstruktur zu kennen und verstehen. Die Struktur auf experimentellem Weg zu ermitteln, ist aber sehr schwierig. Einfacher ist es, die chemische Zusammensetzung eines Proteins zu ermitteln.<br />
<br />
<br />
POEM@HOME versucht mittels Berechnungen:<br />
* die Struktur von Proteinen zu ermitteln, die das Protein hat wenn es aktiv ist.<br />
* die Signalverarbeitung bei der Interaktion von Proteinen untereinander zu verstehen.<br />
* Krankheiten zu verstehen, die mit Fehlfunktionen und Verklumpungen von Proteinen zusammenhängen.<br />
* neue Arzneistoffe auf Basis der räumlichen Struktur von biologisch wichtigen Proteinen zu entwickeln.<br />
<br />
<br />
POEM@HOME nutzt einen neuen Ansatz, der sich sehr gut für [[Distributed Computing]] eignet. Er basiert auf der Arbeit von [http://de.wikipedia.org/wiki/Anfinsen C. B. Anfinsen], für welche er 1972 den Nobelpreis für Chemie bekommen hat.<br />
<br />
<br />
POEM@HOME ist ein rein wissenschaftliches, nicht-kommerzielles Projekt. Alle substanziellen Ergebnisse werden in internationalen Fachmagazinen mit einer Danksagung an die Teilnehmer des Projekts veröffentlicht.<ref>[http://boinc.fzk.de/poem/ Our project in detail]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Auf der Homepage des Projektes wurden die ersten Berichte über Ergenisse veröffentlicht: [http://boinc.fzk.de/poem/index.php?section=resultpage Results December 2007]<br />
<br />
Unter anderem sind dies erfolgreiche gefaltete Modelle von HI-Viren.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 19.10.2007 mit einem eigenen Team an POEM@HOME teil und erreichte am 24.10.2007 Platz 1.<br />
<br />
Am 05.12.2007 überschritt das Team bei POEM@HOME die Grenze von 1 Mio. [[Credits]].<br />
<br />
POEM@HOME wurde für den März 2008 zum [[Projekt des Monats]] gewählt. In dessen Verlauf wurden am 29.03.2008 20 Mio. Credits erreicht.<br />
<br />
== Teilnahme ==<br />
<br />
Die Anmelde-URL lautet: [http://boinc.fzk.de/poem/ http://boinc.fzk.de/poem/]<br />
<br />
Das Projekt wird über die [[Portal:BOINC/Beschreibung|BOINC]]-Plattform betrieben, es sind derzeit keine Besonderheiten beim Betrieb oder der Konfiguration bekannt.<br />
<br />
Die Datenmenge beim Transfer beträgt einmalig knapp 2,8 MB. Bei jeder Work-Unit werden ca. 100 KB herunter- und ~100 KB hochgeladen.<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* POEM@HOME vergibt [[Credits#Fixe Credits|fixe Credits]]. Die Creditvergabe ist noch in der Anpassung.<br />
* Das [[Quorum]] beträgt 1. Eine [[Work-Unit]] muss somit nur von einem Rechner erfolgreich berechnet werden.<br />
* Die [[Deadline]] bei diesen Projekt beträgt z.Z. 5 Tage (CASP), später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 30 pro Tag und CPU.<br />
* Vom Betriebssystem her arbeitet Windows XP 32 Bit von den Desktopsystemen am schnellsten. Linux 32 Bit arbeitet ungefähr 3% langsamer als Windows XP. Windows Vista x64 arbeitet ungefähr 8% langsamer als Windows XP und 5% langsamer als Linux 32 Bit.<br />
* Die Work-Units unterscheiden sich in Berechnungsdauer sowie Speicherauslastung. Dementsprechend schwankt die Creditvergabe. Manche WU-Serien profitieren von mehr L2-Cache, andere von der RAM Bandbreite.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_POEM.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.fzk.de/poem/ boinc.fzk.de/poem/] - Internetpräsenz des Projekts<br />
* [http://boinc.fzk.de/poem/team_display.php?teamid=172 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Portal:BOINC/Konfiguration&diff=4137Portal:BOINC/Konfiguration2008-06-21T10:48:05Z<p>TAL9000: /* Web Interface */</p>
<hr />
<div>[[Portal:BOINC/Beschreibung|BOINC]] lässt sich auf verschiedene Weisen an die Bedürftnisse des Benutzers anpassen.<br />
So ist es möglich über das Webinterface Profile für Home, Work und School einzurichten und diese den Rechnern des eigenen Accounts zuzuweisen. Will man bestimmte Einstellungen speziell für einen Rechner festlegen, so steht hierfür die lokale Konfigurationsdatei global_prefs_override.xml zur Verfügung. Zudem gibt es noch zahlreiche weitere Konfigurationsdateien, die das Verhalten des BOINC-Clients und der Projekte beeinflussen.<br />
<br />
<br />
== Web Interface ==<br />
Ein Weg BOINC an die eigenen Bedürfnisse anzupassen geht über das Webinterface. In den Account Informationen findet man unter "General preferences" eine Vielzahl von Einstellungsmöglichkeiten. Diese sind in der folgenden Tabellen kurz beschrieben:<br />
<br />
Processor usage (Prozessor Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work while computer is on battery power?<br />
! class="dcw_normalTableCell" | Regelt das Verhalten bei Laptops. Bei Batteriebetrieb kann Boinc angehalten werden um die Laufzeit zu verlängern<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work while computer is in use? <br />
! class="dcw_normalTableCell" | Regelt das Verhalten bei gleichzeitiger Nutzung des PCs. Boinc wird angehalten solange am PC gearbeitet wird um die gesamte Lleistung dem User bereitzustellen (wie ein Bildschirmschoner).<br />
|-<br />
! class="dcw_normalTableCell" | 'In use' means mouse/keyboard activity in last (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Nur Aktiv wenn vorherige Option auf "yes" steht. Damit lässt sich die Wartezeit einstellen, erst nach ablauf dieser wird Boinc reaktiviert.<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work if no mouse/keyboard activity in last (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Sorgt dafür das nach der eingestellten Zeit Boinc angehalten wird, damit dann der PC in den Schlafmodus wechseln kann. Bitte entsprechen die Zeit dafür am System selber anpassen/reduzieren. Ab Boinc 5.10.14 oder neuer<br />
|-<br />
! class="dcw_normalTableCell" | Do work only between the hours of<br />
! class="dcw_normalTableCell" | Lässt Boinc nur zur eingestellten Uhrzeit laufen.<br />
|-<br />
! class="dcw_normalTableCell" | Leave applications in memory while suspended?<br />
! class="dcw_normalTableCell" | Wenn Boinc angehalten wird, kann hier eingestellt werden ob die Projektanwendung im Speicher gehalten wird (pausiert) oder komplett entfernt wird (beendet). Dadurch wird die RAM Nutzung minimiert<br />
|-<br />
! class="dcw_normalTableCell" | Switch between applications every (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Diese Einstellung bestimmt nach welcher Zeit sich die Anwendungen, bei Teilnahme an meheren Projekten, abwechseln.<br />
|-<br />
! class="dcw_normalTableCell" | On multiprocessors, use at most (Anzahl) processors<br />
! class="dcw_normalTableCell" | Legt die Anzahl der zu benutzenden CPUs / Cores des PCs fest. <br />
Wird bis Boinc 5.10 und frühreren Versionen genutzt<br />
|-<br />
! class="dcw_normalTableCell" | On multiprocessors, use at most (Prozent) of the processors<br />
! class="dcw_normalTableCell" | Legt den Anteil der zu benutzenden CPUs / Cores des PCs fest. <br />
Wird ab Boinc 6.1 und neueren Versionen genutzt<br />
|-<br />
! class="dcw_normalTableCell" | Use at most of (Prozent) CPU time<br />
! class="dcw_normalTableCell" | Legt die Auslastung der zu benutzenden Rechenleistung des PCs fest. Da durch kann die Temperatur und Leistungsaufnahme abgesenkt werden. <br />
Wird ab Boinc 5.6 und neueren Versionen genutzt<br />
|}<br />
<br />
<br />
Network usage (Netzwerk Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Connect to network about every <br />
! class="dcw_normalTableCell" | Bestimmt, wieviel WUs heruntergeladen werden. <br />
|}<br />
<br />
== Profile ==<br />
Profile dienen dem einfachen Verwalten mehrere Rechner. Es gibt drei Profile: Home, Work und School. Jedes dieser Profile lässt sich einzeln über das Webinterface editieren. Um einem Rechner ein Profile zuzuordnen lässt man sich im Webinterface die Computerinformationen anzeigen und ändert dort die "Location" entsprechend ab.<br />
<br />
<br />
== Den nächsten automatischen Benchmark hinauszögern ==<br />
<br />
Standardmäßig führt der BOINC-Client automatisch alle 5 Tage einen Benchmark durch. Um diesen hinauszuzögern muss man die Zeit des letzten durchgeführten Benchmarks in die Zukunft abändern.<br />
<br />
Um den nächsten Benchmark ein Jahr hinauszuzögern geht man dabei wie folgt vor:<br />
<br />
# '''BOINC beenden'''<br />
# Die client_state.xml Datei öffnen<br />
# Nach p_calculated suchen und auf den dort stehenden Wert 31536000 (= 365 * 24 * 3600) dazuaddieren<br />
# Abspeichern, BOINC wieder starten und freuen<br />
<br />
<br />
Alternativ kann man den Zeitpunkt für den nächsten automatischen Benchmark selbst bestimmen:<br />
<br />
# '''BOINC beenden'''<br />
# Die client_state.xml Datei öffnen<br />
# Den gewünschten Zeitpunkt in [[Unixzeit]] umrechnen, zB mit http://www.unixtime.de/<br />
# Nach p_calculated suchen und den dort stehenden Wert durch den oben errechneten Wert ersetzen<br />
# Abspeichern, BOINC wieder starten und freuen<br />
<br />
<br />
'''Achtung: BOINC muss VOR diesen Änderungen unbedingt komplett beendet werden, da ansonsten massive Probleme auftreten können!'''<br />
<br />
== Weblinks == <br />
<br />
* http://boinc.berkeley.edu/prefs_override.php - Beschreibung der global_prefs_override.xml auf der Berkley Homepage<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=Portal:BOINC/Konfiguration&diff=4136Portal:BOINC/Konfiguration2008-06-21T10:47:06Z<p>TAL9000: /* Web Interface */ Erweitert</p>
<hr />
<div>[[Portal:BOINC/Beschreibung|BOINC]] lässt sich auf verschiedene Weisen an die Bedürftnisse des Benutzers anpassen.<br />
So ist es möglich über das Webinterface Profile für Home, Work und School einzurichten und diese den Rechnern des eigenen Accounts zuzuweisen. Will man bestimmte Einstellungen speziell für einen Rechner festlegen, so steht hierfür die lokale Konfigurationsdatei global_prefs_override.xml zur Verfügung. Zudem gibt es noch zahlreiche weitere Konfigurationsdateien, die das Verhalten des BOINC-Clients und der Projekte beeinflussen.<br />
<br />
<br />
== Web Interface ==<br />
Ein Weg BOINC an die eigenen Bedürfnisse anzupassen geht über das Webinterface. In den Account Informationen findet man unter "General preferences" eine Vielzahl von Einstellungsmöglichkeiten. Diese sind in der folgenden Tabellen kurz beschrieben:<br />
<br />
Processor usage (Prozessor Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work while computer is on battery power?<br />
! class="dcw_normalTableCell" | Regelt das Verhalten bei Laptops. Bei Batteriebetrieb kann Boinc angehalten werden um die Laufzeit zu verlängern<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work while computer is in use? <br />
! class="dcw_normalTableCell" | Regelt das Verhalten bei gleichzeitiger Nutzung des PCs. Boinc wird angehalten solange am PC gearbeitet wird um die gesamte Lleistung dem User bereitzustellen (wie ein Bildschirmschoner).<br />
|-<br />
! class="dcw_normalTableCell" | 'In use' means mouse/keyboard activity in last (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Nur Aktiv wenn vorherige Option auf "yes" steht. Damit lässt sich die Wartezeit einstellen, erst nach ablauf dieser wird Boinc reaktiviert.<br />
|-<br />
! class="dcw_normalTableCell" | Suspend work if no mouse/keyboard activity in last (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Sorgt dafür das nach der eingestellten Zeit Boinc angehalten wird, damit dann der PC in den Schlafmodus wechseln kann. Bitte entsprechen die Zeit dafür am System selber anpassen/reduzieren. Ab Boinc 5.10.14 oder neuer<br />
|-<br />
! class="dcw_normalTableCell" | Do work only between the hours of<br />
! class="dcw_normalTableCell" | Lässt Boinc nur zur eingestellten Uhrzeit laufen.<br />
|-<br />
! class="dcw_normalTableCell" | Leave applications in memory while suspended?<br />
! class="dcw_normalTableCell" | Wenn Boinc angehalten wird, kann hier eingestellt werden ob die Projektanwendung im Speicher gehalten wird (pausiert) oder komplett entfernt wird (beendet). Dadurch wird die RAM Nutzung minimiert<br />
|-<br />
! class="dcw_normalTableCell" | Switch between applications every (Anzahl) minutes<br />
! class="dcw_normalTableCell" | Diese Einstellung bestimmt nach welcher Zeit sich die Anwendungen, bei Teilnahme an meheren Projekten, abwechseln.<br />
|-<br />
! class="dcw_normalTableCell" | On multiprocessors, use at most (Anzahl) processors<br />
! class="dcw_normalTableCell" | Legt die Anzahl der zu benutzenden CPUs / Cores des PCs fest. <br />
Wird bis Boinc 5.10 und frühreren Versionen genutzt<br />
|-<br />
! class="dcw_normalTableCell" | On multiprocessors, use at most (Prozent) of the processors<br />
! class="dcw_normalTableCell" | Legt die Anzahl der zu benutzenden CPUs / Cores des PCs fest. <br />
Wird ab Boinc 6.1 und neueren Versionen genutzt<br />
|-<br />
! class="dcw_normalTableCell" | Use at most of (Prozent) CPU time<br />
! class="dcw_normalTableCell" | Legt die Auslastung der zu benutzenden Rechenleistung des PCs fest. Da durch kann die Temperatur und Leistungsaufnahme abgesenkt werden. <br />
Wird ab Boinc 5.6 und neueren Versionen genutzt<br />
|}<br />
<br />
<br />
Network usage (Netzwerk Nutzung)<br />
{| class="dcw_fullWidthTable"<br />
|-<br />
! class="dcw_normalTableCell" | Connect to network about every <br />
! class="dcw_normalTableCell" | Bestimmt, wieviel WUs heruntergeladen werden. <br />
|}<br />
<br />
== Profile ==<br />
Profile dienen dem einfachen Verwalten mehrere Rechner. Es gibt drei Profile: Home, Work und School. Jedes dieser Profile lässt sich einzeln über das Webinterface editieren. Um einem Rechner ein Profile zuzuordnen lässt man sich im Webinterface die Computerinformationen anzeigen und ändert dort die "Location" entsprechend ab.<br />
<br />
<br />
== Den nächsten automatischen Benchmark hinauszögern ==<br />
<br />
Standardmäßig führt der BOINC-Client automatisch alle 5 Tage einen Benchmark durch. Um diesen hinauszuzögern muss man die Zeit des letzten durchgeführten Benchmarks in die Zukunft abändern.<br />
<br />
Um den nächsten Benchmark ein Jahr hinauszuzögern geht man dabei wie folgt vor:<br />
<br />
# '''BOINC beenden'''<br />
# Die client_state.xml Datei öffnen<br />
# Nach p_calculated suchen und auf den dort stehenden Wert 31536000 (= 365 * 24 * 3600) dazuaddieren<br />
# Abspeichern, BOINC wieder starten und freuen<br />
<br />
<br />
Alternativ kann man den Zeitpunkt für den nächsten automatischen Benchmark selbst bestimmen:<br />
<br />
# '''BOINC beenden'''<br />
# Die client_state.xml Datei öffnen<br />
# Den gewünschten Zeitpunkt in [[Unixzeit]] umrechnen, zB mit http://www.unixtime.de/<br />
# Nach p_calculated suchen und den dort stehenden Wert durch den oben errechneten Wert ersetzen<br />
# Abspeichern, BOINC wieder starten und freuen<br />
<br />
<br />
'''Achtung: BOINC muss VOR diesen Änderungen unbedingt komplett beendet werden, da ansonsten massive Probleme auftreten können!'''<br />
<br />
== Weblinks == <br />
<br />
* http://boinc.berkeley.edu/prefs_override.php - Beschreibung der global_prefs_override.xml auf der Berkley Homepage<br />
<br />
[[Kategorie:BOINC]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=POEM@HOME&diff=4065POEM@HOME2008-06-06T05:45:33Z<p>TAL9000: /* Besonderheiten */ CPU/WU Quota wieder hinzugefügt</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|Forschungszentrum Karlsruhe}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Oktober 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.fzk.de/poem/|Name=boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.fzk.de/poem/team_display.php?teamid=172}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=POEM@HOME}}<br />
|}<br />
<br />
'''POEM@HOME''' ('''P'''rotein '''O'''ptimization with '''E'''nergy '''M'''ethods) befasst sich mit der Vorhersage von Proteinstrukturen, der Interaktion von Proteinen und den Krankheiten welche durch Proteinfehlfunktionen hervorgerufen werden. Die Ergebnisse werden auch für die Entwicklung neuer Medikamente genutzt.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Proteine sind die Motoren des Lebens. Es sind große Moleküle, bestehend aus zehntausenden Atomen, die einzigartige dreidimensionale Strukturen bilden, welche die Funktion des Proteins bestimmt.<br />
<br />
Zu den Funktionen der Proteine zählen Stoffwechsel, Energieumwandlung (z. B. Photosynthese) und -transport, Signalverarbeitung im Gehirn, Immunreaktionen und vieles mehr. Fehlfunktionen von Proteinen stehen oft im Zusammenhang mit Krankheiten. Bis heute sind tausende Proteine bekannt, die mit Krankheiten in Verbindung stehen, aber von vielen ist die Struktur nicht bekannt.<br />
<br />
Um Proteine zu verstehen, beeinflussen oder gar zu designen, ist es nötig die Proteinstruktur zu kennen und verstehen. Die Struktur auf experimentellem Weg zu ermitteln, ist aber sehr schwierig. Einfacher ist es, die chemische Zusammensetzung eines Proteins zu ermitteln.<br />
<br />
<br />
POEM@HOME versucht mittels Berechnungen:<br />
* die Struktur von Proteinen zu ermitteln, die das Protein hat wenn es aktiv ist.<br />
* die Signalverarbeitung bei der Interaktion von Proteinen untereinander zu verstehen.<br />
* Krankheiten zu verstehen, die mit Fehlfunktionen und Verklumpungen von Proteinen zusammenhängen.<br />
* neue Arzneistoffe auf Basis der räumlichen Struktur von biologisch wichtigen Proteinen zu entwickeln.<br />
<br />
<br />
POEM@HOME nutzt einen neuen Ansatz, der sich sehr gut für [[Distributed Computing]] eignet. Er basiert auf der Arbeit von [http://de.wikipedia.org/wiki/Anfinsen C. B. Anfinsen], für welche er 1972 den Nobelpreis für Chemie bekommen hat.<br />
<br />
<br />
POEM@HOME ist ein rein wissenschaftliches, nicht-kommerzielles Projekt. Alle substanziellen Ergebnisse werden in internationalen Fachmagazinen mit einer Danksagung an die Teilnehmer des Projekts veröffentlicht.<ref>[http://boinc.fzk.de/poem/ Our project in detail]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Auf der Homepage des Projektes wurden die ersten Berichte über Ergenisse veröffentlicht: [http://boinc.fzk.de/poem/index.php?section=resultpage Results December 2007]<br />
<br />
Unter anderem sind dies erfolgreiche gefaltete Modelle von HI-Viren.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 19.10.2007 mit einem eigenen Team an POEM@HOME teil und erreichte am 24.10.2007 Platz 1.<br />
<br />
Am 05.12.2007 überschritt das Team bei POEM@HOME die Grenze von 1 Mio. [[Credits]].<br />
<br />
POEM@HOME wurde für den März 2008 zum [[Projekt des Monats]] gewählt. In dessen Verlauf wurden am 29.03.2008 20 Mio. Credits erreicht.<br />
<br />
== Teilnahme ==<br />
<br />
Die Anmelde-URL lautet: [http://boinc.fzk.de/poem/ http://boinc.fzk.de/poem/]<br />
<br />
Das Projekt wird über die [[BOINC]]-Plattform betrieben, es sind derzeit keine Besonderheiten beim Betrieb oder der Konfiguration bekannt.<br />
<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* POEM@HOME vergibt [[Credits#Fixe Credits|fixe Credits]]. Die Creditvergabe ist noch in der Anpassung.<br />
* Das [[Quorum]] beträgt 1. Eine [[Work-Unit]] muss somit nur von einem Rechner erfolgreich berechnet werden.<br />
* Die [[Deadline]] bei diesen Projekt beträgt z.Z. 5 Tage (CASP), später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Die maximale Anzahl an Work-Units ist 30 pro Tag und CPU.<br />
* Vom Betriebssystem her arbeitet Windows XP 32 Bit von den Desktopsystemen am schnellsten. Linux 32 Bit arbeitet ungefähr 3% langsamer als Windows XP. Windows Vista x64 arbeitet ungefähr 8% langsamer als Windows XP und 5% langsamer als Linux 32 Bit.<br />
* Die Work-Units unterscheiden sich in Berechnungsdauer sowie Speicherauslastung. Dementsprechend schwankt die Creditvergabe. Manche WU-Serien profitieren von mehr L2-Cache, andere von der RAM Bandbreite.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_POEM.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.fzk.de/poem/ boinc.fzk.de/poem/] - Internetpräsenz des Projekts<br />
* [http://boinc.fzk.de/poem/team_display.php?teamid=172 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000https://dc.planet3dnow.de/wiki/index.php?title=POEM@HOME&diff=4063POEM@HOME2008-06-01T11:05:03Z<p>TAL9000: /* Besonderheiten */ Deadline angepasst, CPU/WU Quota entfernt</p>
<hr />
<div><!-- [[Distributed Computing Wiki:Formatvorlage Projekt]] --><br />
{| {{Steckbrief}}<br />
|-<br />
| {{Steckbrief Kategorie|Biologie & Medizin}}<br />
|-<br />
| {{Steckbrief Betreiber|Forschungszentrum Karlsruhe}}<br />
|-<br />
| {{Steckbrief Nationalität|Deutschland|de}}<br />
|-<br />
| {{Steckbrief Start|Oktober 2007}}<br />
|-<br />
| {{Steckbrief Status|Alpha}}<br />
|-<br />
| {{Steckbrief Webseite|URL=http://boinc.fzk.de/poem/|Name=boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Anmeldung|URL=http://boinc.fzk.de/poem/}}<br />
|-<br />
| {{Steckbrief Clients Systeme}}<br />
|-<br />
| {{Steckbrief Clients Architektur|x86|x|x|-|-|-}}<br />
|-<br />
| {{Steckbrief P3D-Statistik|URL=http://boinc.fzk.de/poem/team_display.php?teamid=172}}<br />
|-<br />
| {{Steckbrief P3D-Statistik Live|Name=POEM@HOME}}<br />
|}<br />
<br />
'''POEM@HOME''' ('''P'''rotein '''O'''ptimization with '''E'''nergy '''M'''ethods) befasst sich mit der Vorhersage von Proteinstrukturen, der Interaktion von Proteinen und den Krankheiten welche durch Proteinfehlfunktionen hervorgerufen werden. Die Ergebnisse werden auch für die Entwicklung neuer Medikamente genutzt.<br />
<br />
== Projektbeschreibung ==<br />
<br />
Proteine sind die Motoren des Lebens. Es sind große Moleküle, bestehend aus zehntausenden Atomen, die einzigartige dreidimensionale Strukturen bilden, welche die Funktion des Proteins bestimmt.<br />
<br />
Zu den Funktionen der Proteine zählen Stoffwechsel, Energieumwandlung (z. B. Photosynthese) und -transport, Signalverarbeitung im Gehirn, Immunreaktionen und vieles mehr. Fehlfunktionen von Proteinen stehen oft im Zusammenhang mit Krankheiten. Bis heute sind tausende Proteine bekannt, die mit Krankheiten in Verbindung stehen, aber von vielen ist die Struktur nicht bekannt.<br />
<br />
Um Proteine zu verstehen, beeinflussen oder gar zu designen, ist es nötig die Proteinstruktur zu kennen und verstehen. Die Struktur auf experimentellem Weg zu ermitteln, ist aber sehr schwierig. Einfacher ist es, die chemische Zusammensetzung eines Proteins zu ermitteln.<br />
<br />
<br />
POEM@HOME versucht mittels Berechnungen:<br />
* die Struktur von Proteinen zu ermitteln, die das Protein hat wenn es aktiv ist.<br />
* die Signalverarbeitung bei der Interaktion von Proteinen untereinander zu verstehen.<br />
* Krankheiten zu verstehen, die mit Fehlfunktionen und Verklumpungen von Proteinen zusammenhängen.<br />
* neue Arzneistoffe auf Basis der räumlichen Struktur von biologisch wichtigen Proteinen zu entwickeln.<br />
<br />
<br />
POEM@HOME nutzt einen neuen Ansatz, der sich sehr gut für [[Distributed Computing]] eignet. Er basiert auf der Arbeit von [http://de.wikipedia.org/wiki/Anfinsen C. B. Anfinsen], für welche er 1972 den Nobelpreis für Chemie bekommen hat.<br />
<br />
<br />
POEM@HOME ist ein rein wissenschaftliches, nicht-kommerzielles Projekt. Alle substanziellen Ergebnisse werden in internationalen Fachmagazinen mit einer Danksagung an die Teilnehmer des Projekts veröffentlicht.<ref>[http://boinc.fzk.de/poem/ Our project in detail]</ref><br />
<br />
<br />
== Erfolge des Projekts ==<br />
<br />
Auf der Homepage des Projektes wurden die ersten Berichte über Ergenisse veröffentlicht: [http://boinc.fzk.de/poem/index.php?section=resultpage Results December 2007]<br />
<br />
Unter anderem sind dies erfolgreiche gefaltete Modelle von HI-Viren.<br />
<br />
<br />
== Planet 3DNow! ==<br />
<br />
Planet 3DNow! nimmt seit dem 19.10.2007 mit einem eigenen Team an POEM@HOME teil und erreichte am 24.10.2007 Platz 1.<br />
<br />
Am 05.12.2007 überschritt das Team bei POEM@HOME die Grenze von 1 Mio. [[Credits]].<br />
<br />
POEM@HOME wurde für den März 2008 zum [[Projekt des Monats]] gewählt. In dessen Verlauf wurden am 29.03.2008 20 Mio. Credits erreicht.<br />
<br />
== Teilnahme ==<br />
<br />
Die Anmelde-URL lautet: [http://boinc.fzk.de/poem/ http://boinc.fzk.de/poem/]<br />
<br />
Das Projekt wird über die [[BOINC]]-Plattform betrieben, es sind derzeit keine Besonderheiten beim Betrieb oder der Konfiguration bekannt.<br />
<br />
<br />
== Besonderheiten ==<br />
<br />
* Das Projekt unterstützt [[Checkpoints]].<br />
* POEM@HOME vergibt [[Credits#Fixe Credits|fixe Credits]]. Die Creditvergabe ist noch in der Anpassung.<br />
* Das [[Quorum]] beträgt 1. Eine [[Work-Unit]] muss somit nur von einem Rechner erfolgreich berechnet werden.<br />
* Die [[Deadline]] bei diesen Projekt beträgt z.Z. 5 Tage (CASP), später abgegebene Work-Units werden nicht mehr akzeptiert. Die Berechnung muss innerhalb dieses Zeitraums abgeschlossen und das Ergebnis dem Projekt vollständig gemeldet werden.<br />
* Vom Betriebssystem her arbeitet Windows XP 32 Bit von den Desktopsystemen am schnellsten. Linux 32 Bit arbeitet ungefähr 3% langsamer als Windows XP. Windows Vista x64 arbeitet ungefähr 8% langsamer als Windows XP und 5% langsamer als Linux 32 Bit.<br />
* Die Work-Units unterscheiden sich in Berechnungsdauer sowie Speicherauslastung. Dementsprechend schwankt die Creditvergabe. Manche WU-Serien profitieren von mehr L2-Cache, andere von der RAM Bandbreite.<br />
<br />
== Banner ==<br />
<br />
[[Bild:Banner_POEM.png]]<br />
<br />
<br />
== Weblinks ==<br />
<br />
* [http://boinc.fzk.de/poem/ boinc.fzk.de/poem/] - Internetpräsenz des Projekts<br />
* [http://boinc.fzk.de/poem/team_display.php?teamid=172 Planet 3DNow! Teamstatistik]<br />
<br />
<br />
== Quellen ==<br />
<references /><br />
<br />
<br />
{{NaviBlock<br />
|Vorlage:Navigationsleiste BOINC<br />
|Navigationsleiste Nicht-BOINC<br />
}}<br />
<br />
[[Kategorie:Biologie & Medizin]]<br />
[[Kategorie:BOINC-Projekt]]<br />
[[Kategorie:Planet 3DNow! Team]]</div>TAL9000