MySQLD - my.cnf , das "letzte" rausholen

schnoog

New Member
Hallo zusammen,
ich hab vor einigen Wochen ein Projekt übernommen, dass ganz massiv Gebrauch von MySQL macht
( [--] Up for: 8h 19m 36s (7M q [235.488 qps], 4K conn, TX: 1B, RX: 1B . ,

[--] Reads / Writes: 5% / 95%

[--] Total buffers: 2.0G global + 6.8M per thread (151 max threads)
und das während den weniger gut besuchten Stunden :D )

Es geht dabei um einen Gameserver-Tracker (namentlich splatterladder.com), der alle 90 Sekunden knapp 2000 Server trackt.

Das ganze auf ner AMD Athlon(tm) II X4 605e Processor Büchse mit 12GB RAM. Auf der Kiste läuft mysql, pound, apache2 und lighttpd

Ich möchte über die my.cnf die Leistung des mysqlds maximieren (er darf ruhig 8-10GB Ram fressen).
Die Main-Datenbank ist ca. 2GB gross und hat >20Mio Queries am Tag zu beantworten.
Wenn nun der Tracker seine zyklischen Queries ausführt, bremst das die Homepage extrem aus, so dass ich durchaus noch Verbesserungs-Potential vermute.

Nun hab ich natürlich den tuning-primer drüber rennen lassen, und natürlich ein paar Tipps bekommen. Nur stellt sich mir die Frage, welche .cnf für mich wohl die richtige wäre.
Code:
SLOW QUERIES
The slow query log is NOT enabled.
Current long_query_time = 10.000000 sec.
You have 5 out of 7176058 that take longer than 10.000000 sec. to complete
Your long_query_time seems to be fine

BINARY UPDATE LOG
The binary update log is enabled
The expire_logs_days is not set.
The mysqld will retain the entire binary log until RESET MASTER or PURGE MASTER LOGS commands are run manually
Setting expire_logs_days will allow you to remove old binary logs automatically
See http://dev.mysql.com/doc/refman/5.1/en/purge-master-logs.html
Binlog sync is not enabled, you could loose binlog records during a server crash

WORKER THREADS
Current thread_cache_size = 8
Current threads_cached = 0
Current threads_per_sec = 0
Historic threads_per_sec = 0
Your thread_cache_size is fine

MAX CONNECTIONS
Current max_connections = 151
Current threads_connected = 33
Historic max_used_connections = 85
The number of used connections is 56% of the configured maximum.
Your max_connections variable seems to be fine.

INNODB STATUS
Current InnoDB index space = 1008 K
Current InnoDB data space = 960 K
Current InnoDB buffer pool free = 70 %
Current innodb_buffer_pool_size = 8 M
Depending on how much space your innodb indexes take up it may be safe
to increase this value to up to 2 / 3 of total system memory

MEMORY USAGE
Max Memory Ever Allocated : 2.58 G
Configured Max Per-thread Buffers : 1023 M
Configured Max Global Buffers : 2.02 G
Configured Max Memory Limit : 3.02 G
Physical Memory : 11.51 G
Max memory limit seem to be within acceptable norms

KEY BUFFER
Current MyISAM index space = 2.03 G
Current key_buffer_size = 2.00 G
Key cache miss rate is 1 : 1468
Key buffer free ratio = 72 %
Your key_buffer_size seems to be fine

QUERY CACHE
Query cache is enabled
Current query_cache_size = 16 M
Current query_cache_used = 7 M
Current query_cache_limit = 1 M
Current Query cache Memory fill ratio = 45.29 %
Current query_cache_min_res_unit = 4 K
MySQL won't cache query results that are larger than query_cache_limit in size

SORT OPERATIONS
Current sort_buffer_size = 4 M
Current read_rnd_buffer_size = 512 K
Sort buffer seems to be fine

JOINS
Current join_buffer_size = 132.00 K
You have had 687 queries where a join could not use an index properly
You should enable "log-queries-not-using-indexes"
Then look for non indexed joins in the slow query log.
If you are unable to optimize your queries you may want to increase your
join_buffer_size to accommodate larger joins in one pass.

Note! This script will still suggest raising the join_buffer_size when
ANY joins not using indexes are found.

OPEN FILES LIMIT
Current open_files_limit = 1185 files
The open_files_limit should typically be set to at least 2x-3x
that of table_cache if you have heavy MyISAM usage.
Your open_files_limit value seems to be fine

TABLE CACHE
Current table_open_cache = 512 tables
Current table_definition_cache = 512 tables
You have a total of 430 tables
You have 512 open tables.
Current table_cache hit rate is 27%
, while 100% of your table cache is in use
You should probably increase your table_cache

TEMP TABLES
Current max_heap_table_size = 16 M
Current tmp_table_size = 16 M
Of 15562 temp tables, 4% were created on disk
Created disk tmp tables ratio seems fine

TABLE SCANS
Current read_buffer_size = 2 M
Current table scan ratio = 10079 : 1
You have a high ratio of sequential access requests to SELECTs
You may benefit from raising read_buffer_size and/or improving your use of indexes.

TABLE LOCKING
Current Lock Wait ratio = 1 : 1063
You may benefit from selective use of InnoDB.
If you have long running SELECT's against MyISAM tables and perform
frequent updates consider setting 'low_priority_updates=1'
If you have a high concurrency of inserts on Dynamic row-length tables
consider setting 'concurrent_insert=2'.


und hier mal meine my.cnf (der mysqld-Abschnitt):
Code:
# The MySQL server
[mysqld]
port            = 3306
socket          = /var/run/mysql/mysql.sock
# Change following line if you want to store your database elsewhere
datadir = /var/lib/mysql
skip-external-locking
key_buffer_size = 2048M
max_allowed_packet = 16M
table_open_cache = 512
sort_buffer_size = 4M
net_buffer_length = 8K
read_buffer_size = 2M
read_rnd_buffer_size = 512K
myisam_sort_buffer_size = 8M
query_cache_limit       = 1M
query_cache_size        = 16M
thread_cache_size       = 8
thread_stack            = 128K
table_definition_cache = 512
table_cache=512
log-bin=mysql-bin
binlog_format=mixed
server-id       = 1

Da das System produktiv genutzt wird, schrecke ich davor zurück im Trail-And-Fail Prinzip die einzelnen Variablen durchzutesten.
Ich wäre Euch sehr verbunden, wenn ihr mir den einen oder anderen Tipp für passende Werte geben könntet.

Vielen Dank für Eure Hilfe

Gruss
Schnoog
 
Wenn die zyklischen Queries dermaßen fressen, wurde schon versucht hier zu Optimieren?

Dazu wurden ja keinerlei Angaben gemacht.

Code:
SELECT `column1`,`column` FROM `table` WHERE `id`='123' LIMIT 1

ist schneller als

Code:
SELECT `column1`,`column` FROM `table` WHERE `id`='123'

ist schneller als

Code:
SELECT * FROM `table` WHERE `id`='123'


Alle bringen das selbe Ergebnis, wenn man nur column1 und column2 benötigt, verbrauchen aber unterschiedlich viel Recourcen ;)
 
Also die Queries sind schon recht gut optimiert (wenn auch z.t. keine Indizies genutzt werden [ das bezieht sich aber zu 99.9% auf eine Robinson-Tabelle, die jeden Tag 3-5 Mio Datensätze an Fluktiation hat.

Von daher sehe ich als ersten Schritt mal die Optimierung der cnf...besonders da ich im Standard-Betrieb noch >8GB freien RAM hab.
 
Du koenntest MySQL, wenn du soviel RAM frei hast, auf eine TMPFS legen und diese per DRBD asynchron auf ein RAID syncen. Damit solltest du das Problem des I/O Bottleneck beheben (RAM hat ueblicherweise ueber 8Gb/s im Random-Seek).

Wenn das Projekt uebernommen wurde ist es schwer zu aendern, aber du solltest ueberlegen weg von einem zyklischen Update zu gehen und mehrere Update-Threads gleichzeitig laufen zu lassen. Das sollte die stossweise Last auf MySQL verringern und dir mehr Spielraum geben.
Des weiteren sollten die Keys (zB Haupt-Informationen ueber die Server) in Memcached zwischengespeichert werden um die SELECT in MySQL zu entlasten.

Alternativ kannst du kurzfristig auf 2 verschiedene MySQL-Server ausweichen wobei der Slave nur SELECT beantwortet. Somit solltest du bei Belastung des Hauptservers eine benutzbare Webseite haben.

Ich habe zeitweise Psychostats (eine Alternative zu Hlstats:X) fuer ueber 1000 Gameserver auf einem Server mit bedeutend weniger Leistung (insbesonder CPU und RAM) laufen lassen, wobei ein volles RegEx Log-Parsen ueber FTP um einiges leistungshrungriger als paar RCON-Queries an Master- und Gameserver ist. Und ich war auf knapp 500 Queries/Sekunde...

Suma sumarium: entweder man wirft mehr Leistung (also staerkere Server) auf ein Problem, oder man optimisiert den Code.
Ich denke letzteres sollte deinen Ressourcen-Hunger auf Dauer bedeutend besser in den Griff kriegen.
 
Ich sehe das genauso wie d4f. Ein gutes Potenzial holt man raus, wenn man die Anfragen besser verteilt. Ebenfalls indem man den Memcached sinnvoll nutzt.

Ansonsten zu Deinen Einstellungen:
Current query_cache_size = 16 M
Current Query cache Memory fill ratio = 45.29 %
Hier braucht es nicht mehr. Aufgrund der vielen Datenänderungen ist der Query-Cache nicht effektiv einsetzbar.

Current join_buffer_size = 132.00 K
Der ist zu klein. 1M wäre eine passende Größe.

Current table_open_cache = 512 tables
You have a total of 430 tables
Current table_cache hit rate is 27%, while 100% of your table cache is in use
Auch wenn die statistischen Angaben im Widerspruch stehen: Hier solltest Du table_open_cache (und dementsprechend auch open_files_limit) soweit erhöhen dass die hitrate bei 100% ist.
Damit werden Zeitintensive IO-Operationen für Datei öffnen und schließen verhindert.

Current read_buffer_size = 2 M
Der Wert ist zu hoch. MySQL braucht einen kleinen (übersichtlichen) Buffer um effektiv zu arbeiten 128K oder 256K (je nach System).

If you have long running SELECT's against MyISAM tables and perform
frequent updates consider setting 'low_priority_updates=1'
If you have a high concurrency of inserts on Dynamic row-length tables
consider setting 'concurrent_insert=2'.
Diese zwei Einstellungen könnten etwas bringen. Müssen aber nicht unbedingt. Es hängt wirklich davon ab, wie die Daten geschrieben werden.

Desweiteren könnte die Umstellung einiger Tabellen auf InnoDB einen Performance-Schub geben. Gerade die, die häufige Updates erleiden.
Und genau bei den Tabellen darauf achten, dass sich statische Zeilen-Längen ergeben. Also keine Text/Blob-Felder nutzen und Char statt Varchar. So wird eine Fragmentierung der Datensätze verhindert.

PS:
schrecke ich davor zurück im Trail-And-Fail Prinzip
Darauf läuft es aber häufig hinaus. Geht Teilweise nicht anders.

huschi.
 
Danke für Eure Tipps (und sorry für die verspätete Antwort).

Ich werd die Selects auf ne Replikat-DB loslassen und den Rest auf dem Master lassen.
Die Replizierung hat sich ja sowieso zwecks DB-Backup angeboten (also schnell 2 aufgesetzt, eine für die Selects, eine 2. auf einem andren Server [im selben Rack :) ] um gemütlich die Backups ziehen zu können.

Was mir aber nicht ganz einleuchten will, ist das bei 430 Tabellen, und 512 geöffneten Tabellen nur 27% Hitrate hatte.
 
Ich möchte ein kurzes Status-Update abliefern ;)

-Ich hab das mysqld-datadir auf ein ramfs gepackt und als Master konfiguriert.
-Ein zweiter mysqld (datadir auf der HD) ist als Slave angebunden.
-Die Backups ziehe ich vom Slave
Bei den Slow Queries hatte ich vorher eine Rate von 1:100 000 nun ist sie aktuell bei 1:7316077

Vielen Dank für den Tipp (ist meine erste Berührung mit ramfs gewesen, und gleich so erfolgreich)


Gruss
Schnoog
 
Back
Top